#AI 戰略
比AI殺死SaaS更可怕的敘事:AI和你的競爭對手開始合作
核心論點最近半年,OpenAI、Anthropic、Google這些AI巨頭正在與網際網路各垂直領域的玩家結盟,建構全新的競爭壁壘。這種"AI+盟友"的組合拳,對網際網路領域的競爭對手們形成了三重打擊:流量入口被截流、商業模式被替代、估值邏輯被顛覆。六大標誌性合作事件全景事件1:OpenAI × Stripe × Etsy/Shopify——AI電商閉環的誕生時間: 2025年9月29日事件: OpenAI在ChatGPT中推出"Instant Checkout"功能,與Stripe聯合開發"Agentic Commerce Protocol"(ACP),首批接入美國Etsy賣家,隨後擴展至超過100萬Shopify商戶(包括Glossier、SKIMS、Spanx、Vuori等品牌)。使用者可以在對話中直接完成從商品發現到支付的全流程,無需跳轉任何外部網站。股價衝擊:Etsy (ETSY): 宣佈當天暴漲16%,但次日回吐大部分漲幅Shopify (SHOP): 當天上漲超過6%最大輸家——Google (GOOGL): Fortune雜誌將此事件定義為"對Google搜尋廣告的直接挑戰"。當ChatGPT的7億周活使用者開始在對話中直接購物,Google Shopping和搜尋廣告的商業邏輯面臨根本性威脅競爭分析: 這一事件的本質不是"AI幫你買東西",而是OpenAI正在建構一個繞過Google搜尋、繞過Amazon商城的全新商品發現與交易閉環。Walmart隨後也在10月宣佈接入ChatGPT,Target緊隨其後。而Amazon採取了截然相反的策略——向Perplexity AI的Comet瀏覽器傳送停止侵權函,試圖阻止使用者通過AI平台購買其商品。事件2:OpenAI × Disney——AI內容帝國的IP聯盟時間: 2025年12月11日事件: Disney與OpenAI簽署三年期合作協議,Disney投資10億美元獲取OpenAI股權,同時將200多個迪士尼、漫威、皮克斯、星球大戰IP角色授權給OpenAI的Sora視訊生成工具。使用者可以在Sora中使用這些角色創作短影片內容,部分內容將在Disney+上線。協議第一年為OpenAI獨佔,此後Disney可向其他AI公司授權。股價衝擊:Disney (DIS): 市場反應溫和正面,但DIS全年漲幅僅約1.4%,大幅跑輸標普500競爭層面衝擊最大的是AI視訊賽道: Runway、Midjourney等此前無法獲得頂級IP的AI視訊工具被OpenAI甩開。CNN分析指出,Disney選擇OpenAI而非Google(因"利益衝突太多,光YouTube的競爭就談不完"),也非Midjourney("太小"),形成了一種精準的戰略排他競爭分析: 更深層的衝擊在於——Disney同日向Google發出停止侵權函,指控其"大規模侵犯迪士尼版權"。這形成了一個極具諷刺性的畫面:AI大模型不僅在搶內容平台的使用者,還在幫助傳統IP巨頭建構針對競爭對手的法律護城河。YouTube Shorts、Instagram Reels、TikTok的UGC內容生態,都將面臨來自"AI+正版IP"的降維打擊。事件3:Anthropic Cowork外掛——引爆"SaaSpocalypse"時間: 2026年1月30日發佈,2月3日市場暴跌事件: Anthropic為其Claude Cowork桌面端AI助手發佈11個行業垂直外掛,覆蓋法律、金融、銷售、資料分析、市場行銷、客服等領域。Cowork不同於傳統聊天機器人——它可以規劃、執行多步驟工作流,在本地檔案系統中操作,並通過Model Context Protocol(MCP)連接企業系統。股價衝擊("SaaSpocalypse"——SaaS末日):競爭分析: LPL Financial股票研究主管Thomas Shipp一語道破核心邏輯:"如果內部開發用AI更省時間,我為什麼還要付軟體訂閱費?更重要的是,像Claude Cowork這樣的應用讓非技術使用者也能替代現有工作流。"關鍵的是,這次暴跌不僅僅打擊了直接競爭對手。金融資料提供商(S&P Global、Moody's、Nasdaq Inc.)、印度IT外包巨頭(Infosys、TCS、Wipro)、甚至倫敦證券交易所集團都被波及。市場的恐慌不是"Anthropic會替代Salesforce",而是"AI正在從生產力增強工具變成軟體和服務價值鏈的直接替代品"。僅四天後(2月6日),Anthropic發佈Claude Opus 4.6——一個擅長金融分析和研究的高級模型,進一步衝擊FactSet、S&P Global等金融資料股票。Gartner在研究報告中試圖給市場降溫,稱"SaaS死亡論為時過早",但也承認新模型"暴露了日常知識工作中仍有多少是手工的,因此極易被自動化"。事件4:Perplexity × Tripadvisor——AI搜尋重構旅遊發現時間: 2025年1月9日事件: Tripadvisor與AI搜尋引擎Perplexity達成付費資料授權合作,將其10億條使用者評論、AI摘要、Viator旅行體驗等資料接入Perplexity的對話式搜尋。這是Perplexity在旅遊領域的首個合作夥伴。三年期協議涵蓋資料授權費和佣金分成。競爭影響:Tripadvisor CEO Matt Goldberg在財報電話會中表示,通過Perplexity來的使用者是"增量的"且"高意向的"——轉化率高於傳統流量Tripadvisor月訪問量從2023年初的約1.6億下滑至2025年2月的1.2億,主要受Google AI Overviews衝擊合作的本質是Tripadvisor在"叛逃"——它在Google的生態中受損,轉而擁抱Google的AI競爭對手最大輸家——Google搜尋與Booking.com: 行業分析指出,如果AI對話成為旅行購物的主要起點,沒有原生、無縫交易能力的平台將處於顯著劣勢。Booking.com被迫向各AI平台提供庫存資料——這不是實力的象徵,而是話語權的喪失。每一個合作公告,都是在慶祝Booking.com角色的弱化。事件5:OpenAI × Oracle——3000億美元雲端運算協議時間: 2025年(多階段推進,Stargate項目框架下)事件: OpenAI與Oracle簽署多年期雲端運算和電力容量採購協議,規模達3000億美元。這一交易使Oracle幾乎在一夜之間從傳統資料庫廠商轉型為AI基礎設施的關鍵玩家。股價衝擊:Oracle在2025年9月簽約後股價暴漲約40%但隨後在12月財報後下跌10%,自簽約高點已累計下跌41%Nvidia與OpenAI的戰略合作估值約1000億美元,進一步鞏固了"AI算力聯盟"的格局競爭分析: 這裡的"AI聯手競爭對手"邏輯更為隱蔽——OpenAI同時與Microsoft Azure(2500億+美元)、AWS(380億美元)、Google Cloud建立了深度合作。三大雲廠商本應是競爭對手,卻都在爭當OpenAI的"基礎設施供應商",形成了一種詭異的"共同依賴"關係。FTC對此發佈了專門的6(b)研究報告,調查Microsoft-OpenAI、Amazon-Anthropic、Google-Anthropic三組合作關係的市場影響。事件6:Anthropic × Snowflake / Accenture——企業AI代理的全面滲透時間: 2025年12月事件:Snowflake合作(2億美元多年期協議): Claude模型深度嵌入Snowflake資料雲,12,600+客戶可通過AWS、Google Cloud、Azure呼叫Claude進行結構化和非結構化資料分析。複雜SQL查詢精準率超過90%Accenture合作: 成立"Accenture Anthropic Business Group",約30,000名Accenture專業人員將接受Claude培訓,共同為金融、醫療、公共部門客戶部署AI競爭分析: 這兩個合作的可怕之處在於——Anthropic不是在和企業競爭,而是在通過管道合作夥伴"寄生"在競爭對手的客戶體內。當3萬名Accenture顧問開始向客戶推薦Claude而非Salesforce、ServiceNow或自研方案時,傳統SaaS公司的管道壁壘就被從內部瓦解了。競爭衝擊的傳導機制第一層:流量截流——"發現"環節被AI壟斷OpenAI的ChatGPT每周7億活躍使用者、Perplexity的AI搜尋、Google自身的Gemini——三者正在重新定義"使用者如何發現商品、服務和資訊"。當OpenAI通過Instant Checkout把購物閉環留在對話內,Google Shopping和Amazon的流量入口價值就被稀釋了。第二層:模式替代——SaaS訂閱邏輯被瓦解Anthropic Cowork外掛引發的"SaaSpocalypse"證明了一個殘酷事實:如果AI agent能直接完成法律研究、金融分析、客戶支援的全流程,那麼按座收費的SaaS模式就面臨存續危機。這不是"AI增強SaaS",而是"AI繞過SaaS"。第三層:估值重構——從"增長溢價"到"替代折價"2025年全年,SaaS公司只有71%超出營收預期(全科技類股為85%)。市場正在為"AI替代風險"定價。Salesforce年初至今(截至2026年2月)下跌26%,是道指表現最差的股票之一。關鍵資料圖譜AI合作對不同類股的股價衝擊強度結論與前瞻核心洞察2025-2026年AI大模型的合作戰略,正在從"to B賣API"轉向"與B聯手改變C的行為"。這種轉變的可怕之處在於:你的競爭對手不需要自己建AI——它只需要和OpenAI或Anthropic簽一個合作協議,就能獲得對你的不對稱優勢AI公司不是中立的基礎設施——當OpenAI與Etsy/Shopify結盟時,它事實上成為了Amazon的競爭對手;當Anthropic發佈法律外掛時,它事實上成為了Thomson Reuters的競爭對手排他性正在成為新武器——Disney給OpenAI一年獨佔期的同時,向Google發停止侵權函。未來,"誰先和頂級AI結盟"將成為與"誰先上市"同等重要的戰略選擇前瞻性判斷Anthropic CEO Dario Amodei的預言——"AI可能在未來1-5年內取代半數入門級白領工作"——正在通過產品發佈逐步兌現。Gartner的安撫("SaaS死亡論為時過早")在短期內可能成立,但2850億美元的單日市值蒸發表明,市場已經在為最壞情況預先定價。對投資者的啟示: 在評估任何網際網路公司時,你需要新增一個分析維度——"這家公司是否有可能成為下一個被AI大模型'聯手競爭對手'打擊的對象?" 如果答案是肯定的,那麼無論當前財務資料多麼健康,都需要對估值施加一個"AI替代折價"。 (FinHub)
蘭德:決定大國興衰的七大社會基因(AI時代的戰略啟示)
近日,RAND發佈《2026年國家新紀元:人工智慧時代的權力格局與競爭優勢研究報告》(A New Age of Nations: Power and Advantage in the AI Era)。本文根據報告內容對決定大國興衰的七大社會基因進行系統闡釋。決定大國興衰的七大社會基因:AI時代的戰略啟示一、國家意志與雄心:驅動文明躍遷的精神引擎支撐大國崛起的首要社會基因是國家意志與雄心,它展現成一種民族追求知識卓越、技術領先以及國家偉大的集體衝動,還有把這種衝動轉變為持續競爭動力的能力。歷史再三證實,那些處於世界政治和文明巔峰的國家,差不多毫無例外都具備充足的國家雄心,這種雄心一方面表現為對外塑造世界秩序的使命感,另一方面體現為對內激發科學家、企業家、藝術家追求卓越的內在驅力。英國於第一次工業革命時期呈現出的那種“掌控自然、塑造全球”的自信,日本在明治維新之後憑藉“文明開化”當作旗幟的舉國奮力進取,還有二戰之後美國以“山巔之城”自我認定的全球層面擔當,全都是這一基因的典型例證說明。邁進AI時代,國家意志的激發跟維繫遭遇了前所未有的繁雜狀況。一方面,AI變革確實或許重新喚起國家使命感,當技術突破帶來物質繁榮的實際前景,當國家於全球AI競賽裡處於領先位置時,民眾有可能再次燃起對集體未來的樂觀與投入。報告專門指出,2025年中國DeepSeek開源AI模型發佈之後,社交媒體上出現的“國運”討論,正是技術成就激發國家認同的鮮活事例。但另一方面,AI也可能成為國家意志的侵蝕物。若AI致使日常日子變得過度安逸,若演算法推薦頂替了人類自行探索的艱難困苦,若“智能助手”消除了人們面對挑戰的心理預先準備,整個社會興許會陷入報告所警示的“國家怠惰”,就像電影《機器人總動員》裡所描繪的情景那般,人類退化成漂浮在躺椅上的被動消費者,失去站立行走的基本能力,更別說追求卓越的雄心壯志了呀。所以,AI時代國家競爭力的核心悖論在於:技術既能賦予國家遠大抱負,也有可能在毫無察覺中把它掏空。二、統一且連貫的國家認同:社會凝聚力的根基第二大關鍵基因是統一的國家認同,這意味著公民對於所屬政治共同體有著深層歸屬感,它還意味著基於共享歷史敘事、核心價值觀以及集體目標的內在團結。這種認同並非一定要體現成極端民族主義,然而其必須足夠激發奉獻精神、犧牲意願以及面對外部壓力時的集體韌性。報告通過十分鮮明的對比直接揭示出這一基因所具備的決定性作用:戰後的日本成功憑藉“一億一心”的社會凝聚力達成了經濟奇蹟,另一個案例是奧斯曼帝國晚期由於多民族結構導致無法形成統一認同,最終在處於內外交困的狀況下走向瞭解體。社會信任水平,會遭到國家認同強度的徑直影響,制度合法性認知,也會被國家認同強度直接左右,而且國家用來動員資源去應對重大挑戰的能力,同樣會因國家認同強度而受到直接作用。網際網路人工智慧引發的革命,對國家認同所產生的衝擊,或許是具備多維度特點且極為深刻的。其一,人工智慧正處於重塑社會權力結構的處理程序之中,在傳統意義上承擔集體認同作用的中介角色,也就是像律師、醫生、教授等這類被稱作“知識精英”的群體,正面臨著被人工智慧所取代或者處於邊緣化狀態的風險,而這種情況將會動搖既有的社會分層以及身份認同的基礎。其二,更為具有根本性的挑戰源自“人機混合社會”的降臨。當人工智慧代理成為社會行動者,於職場、公共空間甚至私人領域同人類展開互動的時候,“社會”以及“團結”的定義本身就需要重新予以界定。報告提出了這樣一個能引發人深刻思考的問題:一個是由人類以及AI共同建構而成的群體,究竟能不能被看作是真正意義上的“社會”?AI有沒有可能擁有某種樣式的集體認同以及歸屬感?對於這些問題目前還沒有答案,然而其被提出來這件事本身就已經預示著國家認同formation機制會發生深刻的變革。最後,AI對於資訊生態所進行的重塑或許會讓“認識論危機”變得更加厲害——當深度偽造、演算法偏見以及AI生成的虛假敘事到處都是的時候,社會共同享有一個重要且基礎的“事實基礎”可能就會崩潰瓦解,而這可是任何集體認同都必須要具備的前提條件。所以,在AI時代,維護國家認同這件事有著前所未有的主動塑造需求:並非對多元進行壓制,而是要在多種多樣之中重新建構共識;並非對技術予以排斥,而是要保證技術是為社會團結服務,可不充當破壞其的角色。三、共享機會:釋放全民潛能的制度通道第三大基因是共享機會,它所衡量的是,一個社會在何種程度上,允許所有成員,不論其出身、性別、種族或者地域,貢獻其全部人力潛能,並且從中獲取個人發展與國家繁榮的雙重回報。報告把這一概念操作化為五個維度,即社會經濟平等、社會流動性、亞群體參與機會、基於功績的選拔體系,以及吸引全球人才的能力。工業革命的歷程顯示,英國能處於領先地位,關鍵之處在於,它擁有相對開放的制度環境,這使得眾多並非貴族出身的發明家、企業家以及工程師能夠脫穎而出,並進而形成了“創造力多點綻放並呈現出繁花似錦之態”的競爭優勢。AI對於共享機會所產生的影響展現出顯著的悖論特性。在樂觀的情形之下,AI或許會變成“偉大的均衡器”,有研究顯示,AI工具對低技能以及缺乏經驗的工作者提升程度最大,有可能把“表現欠佳者轉變為表現良好者”,AI翻譯破除了語言的障礙,使得全球人才的流動更為順暢,AI輔助技術助力殘障人士克服身體方面的限制,延長老年人的productive年限。可是悲觀的情景同樣是真實且具有危險性的,演算法決策有可能在人們毫無察覺的情況下複製甚至放大既有的社會偏見,進而形成"演算法暴政",預測性AI會武斷地把某些人排除在教育、就業以及信貸機會之外,AI驅動的自動化說不定會摧毀大量中等技能崗位,而新增加的崗位常常要求更高的技術素養,以此形成"數字鴻溝"加劇了結構性不平等,更為隱蔽的是,一旦AI變成認知外包的便捷工具,人們也許會喪失深度學習和skill acquisition的動機,進而在根本上削弱把握機會的能力。報告著重特別指出,AI並不會自然而然地以對國家競爭力有益的方式來推動共享機會,而這樣的共享機會推動是需要“具備遠見卓識的公共政策”去主動進行塑造的。歷史所呈現的經驗表明,在技術革命剛開始的時期通常會使不平等的狀況加劇,只有經歷了經過有意識的社會調整之後,才有可能朝著更為包容的發展模式轉變。四、積極有為的國家:平衡賦能與管控的治理藝術四大基因跟國家的角色定位相關,一個積極且有所作為的國家,具備energetic以及前瞻性地去創造成功的社會經濟條件的能力,然而卻不會過度壓制grassroots、那種自下而上的創新活力。這一概念和國家控制型經濟或者社會不一樣,它著重突出國家身為“條件創造者”而非“直接經營者”的功能。歷史給出了充裕的例證,英國借由帝國體系以及金融制度革新給工業革命謀劃道路,日本明治政府直接促使基礎設施建構與產業遷移,美國在緊要時刻以全國家的體制達成曼哈頓計畫、登月工程這般標記性的國家項目。處於AI時代,國家由此面臨著全新的要求。這些要求是矛盾的,一方面,AI給“積極國家”帶來了前所未有的工具,巨量資料分析能提升政策制定時的精準性,智能系統可最佳化公共服務的交付工作,預測性模型能增強風險預警的能力。另外,AI還有可能破解困擾現代政府的“規劃謬誤”,也就是那種系統性高估項目收益、低估成本和工期的傾向,進而恢復公眾對政府效能的信任。可是在另外一方面呢,AI也讓國家遭遇“賦能過度”這樣的風險:在監控技術致使社會控制達到了前所未有的精細程度之時,在演算法決策取代政治判斷以及公共協商之際,“積極國家”興許就會朝著“全能國家”轉變,進而扼殺社會活力。報告所警示的“空心化”風險在於,倘若AI主要被用於強化官僚控制而非賦能公民之時,要是演算法治理讓公眾感覺更加疏離且無力,國家合法性說不定不但不會提升反而會下降。所以,在AI時代,國家建設的關鍵課題在於,怎樣運用技術來提高治理效能,與此同時防止技術官僚制的圈套,如何於資料驅動的精確治理跟保持政治判斷的人文溫度之間找尋平衡。五、有效的制度:降低交易成本的社會基礎設施第五大基因是有效的制度,其中有效的公共和私人機構,能降低交易成本,能填補國家干預的空白,能解決集體行動困境,還能為競爭優勢提供結構性支撐。制度的有效性,不僅體現在正式的法律規章方面,更體現在非正式的社會規範、信任網路以及合作慣例方面。在工業革命時期,英國的專利保護制度,英國的銀行信貸體系,還有相對穩定的社會秩序,為技術創新和資本積累提供了不可或缺的制度環境。AI 對制度效能有著正反兩方面的影響,積極的一面是,它能夠極大程度地提高組織運行效率,具體表現為,自動化處理常規事務,借助智能分析為決策最佳化提供支援,通過預測性維護降低系統故障發生機率。在公共部門領域,AI 有希望突破工業時代留存下來的官僚制僵化局面,達成 “精兵簡政” 的目標。然而,報告特意對 “超級官僚制” 的風險發出了警示,即當 AI 被用在強化複雜程序而非簡化它們的時候,當演算法決策變得不公開並且難以提出申訴時,制度可能會由服務民眾的工具轉變為具有壓迫性的 “演算法任意統治”。更為深層次的危機存在於社會資本遭侵蝕方面:制度能夠有效運行依靠的是社會信任,而信任是建構於人際互動以及共同經驗之上的。待到AI大規模地去替換人際接觸——不管是醫療診斷、教育輔導還是客戶服務——制度運行的情感根基以及合法性來源或許會漸漸枯竭。所以,AI時代的制度建設要超越單純對效率的追求,去關注制度的人性層面:保證演算法決策具備可解釋性以及可申訴性,維護關鍵領域裡的人際互動空間,在技術應用與制度信任之間建構起良性循環。六、學習與適應型社會:持續進化的認知生態第六大基因,所描述的乃是社會的學習以及適應能力,具體涵蓋對新思想的開放性,對實驗與失敗的容忍,還有把知識轉化為實踐創新的制度管道。這一基因,在工業革命裡的體現,是英國科學革命所形成的“開放科學”範式,包含知識共享,其有同行評議、實證檢驗,以及把科學進步與物質改善相聯絡的文化信念。報告著重指出,在長期競爭中獲勝的那些社會,通常是這樣的社會,即能夠在維持一定秩序之際,允許甚至鼓勵“有組織的混亂”,也就是自下而上的創新實驗。AI時代把前所未有的工具給予了學習適應,且帶來了獨特的認知風險。在積極的方面,AI作為“副駕駛”能夠極大地降低知識獲取以及創新的門檻,研究者能夠利用AI迅速梳理文獻、生成假設、設計實驗,教育者能夠借助AI達成個性化教學,釋放每個學習者的潛能,企業家能夠憑藉AI分析市場、最佳化營運、快速迭代。然而風險也是極為明顯的,一旦AI變成便捷高效的知識源頭,人們有極大可能會陷入“認知解除安裝”當中,也就是把思考的整個過程外包給演算法了事,慢慢地就會漸漸失去獨立分析以及批判性思維的能力。報告發出警告,要是這種“認知解除安裝”出現擴散,那將會從根本上對社會的學習能力以及創新基礎造成損害。更潛移默化的是,AI有可能進一步加劇“認識論危機”,當資訊環境被AI所生成的內容大量充斥的時候,當深度偽造致使“眼見為實”成為過往的時候,社會共有的知識基礎以及判斷標準或許就會瓦解離散,而這恰恰是任何學習處理程序的前提條件。所以,在AI時代進行學習型社會建設時,要格外留意“元認知能力”的培育,並非單純地去掌握更多知識,而是要學會怎樣與AI展開協作,以及怎樣去評估AI輸出的內容,還要學會在人機互動當中維持認知自主性。七、多元化與競爭的多樣性維度一為多樣性,也就是社會在人口特性、教育背景、職業途徑、文化經歷等方面的變化程度,維度二則是pluralism,即社會具備重疊的權威出處、規則制訂機制以及治理層級的程度,還有對其包容和看重的程度。這一基因的理論依據是,創新常常源自不同視角的相互撞擊,而pluralism能避免任何單一權力核心獨佔真理的闡釋,給社會提供糾錯以及適應的彈性範圍。工業革命時期,英國存在相對開放的階級流動,有著多元的科學社團網路,且與美國相比具備更為寬容的宗教環境,這些都被視作其創新優勢的重要來源。AI對於多元pluralism所產生的影響充斥著張力,以樂觀的視角來看,AI技術自身具備democratizing潛力,它能夠降低表達以及組織的門檻,從而讓邊緣化群體獲取發聲的管道,進而促進跨地域、跨文化的思想相交。可是,悲觀的那種情景同樣是可信的,AI驅動的個性化內容推薦,也許會固化“過濾氣泡”,致使不同群體生活在越發分離的資訊世界裡,演算法治理的集中化趨勢,有可能削弱pluralism,把決策權力集中到掌握技術和資料資源的少數主體身上,更為關鍵的是,當AI開始主動塑造文化敘事,甚至就像報告所警示的,或許“創造”出新的宗教信仰和意識形態,社會可能會面臨“意義製造”的碎片化危機,傳統institutions在定義共享價值方面的權威受到挑戰。報告著重的強調指出,AI存在進入一種“極化 - 演算法強化 - 更深極化”惡性循環的可能性,這種情況對應依賴多元對話以及妥協民主的社會而言,是極其危險的。所以,在AI時代維護多元 pluralism 這件事,需要有主動的制度設計:要保證演算法系統具備透明度以及多元價值嵌入,要對公共空間裡的異見表達予以保護,還要在技術應用與民主價值二者之間建構起建設性張力。結語:社會基因的戰略整合最終,所有七大基因都指向一個根本性的檢驗標準,即AI對人類能動性的影響。社會若能把AI革命引向“賦能、能動性和尊嚴”方向,便會在AI時代繁榮昌盛。要是任由AI疊加於“剝奪人們能動性和尊嚴的掠奪性力量和制度”之上,就會陷入長期的競爭劣勢。這一判斷把技術競爭重新錨定在人文價值上,為大國戰略提供了一個深層思考框架。 (TOP行業報告)
185億美元!中國企業拿下全球最大AI製藥合作,股價卻暴跌!
醫藥圈被刷屏了。1月30日,石藥集團宣佈與阿斯利康達成戰略合作,利用自身緩釋給藥技術平台和多肽藥物AI發現平台,共同開發創新長效多肽藥物。根據該協議的條款,預付款達12億美元,潛在總交易金額最高可達185億美元。185億美元總包金額,不僅刷新中國創新藥BD出海紀錄,也是全球有關AI藥物研發合作的最高紀錄。從新聞本身來看,這幾乎是一個無可挑剔的利多。創新藥出海、重磅BD、AI製藥、多肽減肥藥.....放在全球任何成熟的資本市場,每一個關鍵詞都足以點燃行業乃至資本市場的興趣。就在合作公告當日,石藥集團股價大幅下跌10.2%,與利多消息形成強烈反差。老牌仿製藥轉型,重壓AI事實上,這已經是近半年阿斯利康與石藥的第二次AI平台合作。2025年6月,雙方達成一項總額高達53.3億美元的合作協議,利用石藥集團的AI驅動高效藥物發現平台,共同發現和開發新型口服小分子候選藥物。兩項基於AI平台的重大合作,充分證明了其AI藥物研發平台的技術實力已獲得全球頂尖藥企的認可。近年來,作為仿製藥起家的老牌藥企,石藥加大了對AI平台的投入,加速創新藥轉型。目前,石藥集團已建構起以AI驅動的高效藥物發現平台。該平台利用AI技術分析靶點蛋白與化合物的結合模式,並進行針對性最佳化,從而顯著提升候選分子的篩選效率和成功率。目前,該平台產出的候選藥物YS2302018(脂蛋白(a)抑製劑)和SYH2039(GLP-1受體激動劑)已分別授權給阿斯利康和百濟神州。這不僅彰顯了平台的技術成熟度,也為公司帶來了巨額的授權收入。而為瞭解決從AI分子設計到實驗驗證的中間環節瓶頸,石藥集團在2025年投入建設了全自動化的AI實驗室。公司稱,通過引入機械臂等自動化裝置,實現了小分子化合物合成的無人化操作。實驗資料顯示,AI技術將新藥早期發現時間縮短了30%,研發成本降低了近50%,並將化合物篩選的精準率提升了3倍以上。而本次與阿斯利康的合作也建立在遞送技術與多肽藥物AI發現平台之上。多肽分子設計空間巨大,傳統試錯成本極高,另一方面,其成藥性、安全性、遞送方式又高度複雜,靠單一經驗很難系統最佳化。而AI能夠在龐大的組合空間中,針對藥物靶點快速設計及篩選候選分子,並可在藥效、選擇性與訊號偏向性等維度進行系統最佳化。傳統藥企,正在集體轉向AI從全球製藥工業的視角看,AI 在藥物研發中的角色已經發生了變化。過去,AI更多被當作一個工具,如今AI正在逐漸成為企業規模化創新的基礎設施。不只石藥集團,已經有多個老牌藥企開始集體押注AI平台,加快研發速度。例如,和鉑醫藥發佈全球首創的全人源重鏈抗體(HCAb)大模型,同時還將打造一個AI驅動、自動化的端到端Idea-to-Clinical平台,加速抗體藥物研發。復星醫藥則投入大量資源研發引入了基於ChatGPT的高效AI工具PharmAID,打造更智能更高效的工作環境,同時深度合作了英矽智能等AI研發企業。百濟神州作為國內唯一建立功能基因組學平台的藥企,整合了CRISPR篩選與AI靶點預測技術,用於基因編輯療法研發。康龍化成則完成海心智惠的控股,獲得高品質患者資料與AI技術平台,拓並助推康龍創新藥研發服務能力和體系的數智化升級。One more thing這次大額BD消息公佈本應是一個好事,但是卻引發了投資人的不滿。石藥跟阿斯利康的BD,在消息公佈前兩個多月股價就開始猛漲50%左右, 到了今天正式公佈這個BD的時候,開盤股價竟然直接跌12%。這一現象引發了投資人的各種猜測。要知道,此前就曾出現在2025年中報中的“預告式BD”,引發了行業對於上市公司資訊披露規則的熱議。另一種儘管阿斯利康12億美元預付款確實可觀,但後續高達173億美元的里程碑付款和銷售分成,兌現條件極為苛刻。這些款項的支付完全取決於項目後續的臨床開發、監管審批和商業銷售成功,任何環節的失敗都可能導致大部分款項無法到位。市場更願為確定的現在付費,而非遙遠的“潛在”交易額。 (智藥局)
前Google CEO施密特:我們將輸給中國,他們把AI用在了所有產品裡
2025 年12月2日,前GoogleCEO埃裡克·施密特與哈佛教授格雷厄姆·艾利森在哈佛甘迺迪學院進行了一場對話,深刻揭示了人工智慧對人類社會、地緣政治和個人自由的顛覆性影響。1. AI進化與“超級智能”的臨近。施密特指出,AI正經歷從語言模型到“智能體”(任務自動化),再到“推理”(更高階人類功能)的演進,這被稱為“舊金山共識”。他認為,這種遞迴式自我改進的“超級智能”(AGI)突破迫在眉睫,可能在兩到四年內實現。他強調,AI的顛覆性被嚴重低估,它不是泡沫,而是對商業、醫學和科學的根本性自動化。2. 中美AI戰略的二元分岔。中美兩國在AI領域的競爭呈現出不同的戰略路徑:•美國(矽谷):專注於追求AGI的突破和閉源模型,這由巨大的資本投入和財務回報需求驅動。•中國:專注於將AI廣泛應用於“萬物”(智能產品、業務流程)和開源生態。施密特警告,由於中國在應用層面的不懈努力,美國在AI應用普及上正“輸給中國”。他認為,中國政府可能通過開源策略,利用免費模型實現技術的廣泛傳播,從而輸出其價值觀和偏見。3. 核心挑戰:人類能動性與自由。對話的核心議題是維護人類能動性(Human Agency)。施密特引用了自動駕駛汽車的“例外按鈕”思想實驗:如果系統完全最佳化交通,但無法為緊急情況提供例外,這將是“電腦對人類的支配”,人類必將反抗。他認為,AI的普及必須與人類經驗和需求相結合,否則將侵犯人類自由。4. 民主與真相的危機。AI對民主社會構成嚴峻威脅。它能輕易生成令人信服的虛假資訊,並利用人類的“錨定偏見”,通過無情的複製和重複來壓倒對真相的信念。施密特擔心,這種“增強的言論”或“演算法言論”將使民主的未來充滿不確定性。5. 工作與尊嚴的社會危機。施密特認為,儘管AI自動化了大量低端工作,但工作崗位的流失不僅是財務問題,更是一場情感和意義感的危機,因為人類的尊嚴與目標緊密相連。他呼籲社會必須解決這一問題,以更好地工具和新的社會結構來應對。對話全文如下:主持人:晚上好,歡迎來到政治學院的約翰·F·甘迺迪青年論壇。今晚,我們聚集在可以說是人類歷史上最關鍵的時刻之一。人工智慧已從一個未來主義的概念演變為我們日常生活中不可或缺的一部分,它在悄然但深刻地重塑著經濟、戰爭乃至人類社會的結構本身。自核時代的黎明以來,全球穩定首次可能不僅僅取決於軍事實力或經濟權重,還取決於為在這項新技術智能領域中爭奪競爭優勢而展開的角逐。總而言之,人工智慧體現了我們以前從未見過的事物。知識產生方式的轉變,決策方式的轉變,以及最終人類看待自身在世界中地位的轉變。20年後的社會會是什麼樣子?更重要的是,人工智慧將如何塑造它?現在,為了評論這些觀點,我很高興地向大家介紹今晚的演講嘉賓。埃裡克·施密特曾在2001年至2011年間擔任Google的董事長兼首席執行長。今天,他擔任相對空間公司(Relativity Space)的主席兼首席執行長。他是“創新實業”(Innovation Endeavors)的創始合夥人,並且是美國乃至全球人工智慧和國家安全領域的主要聲音。格雷厄姆·艾利森是哈佛大學甘迺迪學院的道格拉斯·迪倫政府學教授,他曾擔任該學院創始院長兼貝爾弗中心(Belfare Center)科學與國際事務主任。他還曾在第一屆克林頓政府中擔任國防部長助理,並榮獲國防部傑出公共服務獎章。現在,話不多說,請大家與我一起開啟今晚的討論,並歡迎我們尊敬的嘉賓登台。01 緬懷亨利·基辛格與跨代友誼格雷厄姆:非常榮幸地歡迎我們的同事和朋友埃裡克·施密特再次回到甘迺迪青年論壇,共同探討亨利·基辛格、人工智慧和未來。正如你們在這裡看到的,這張埃裡克和亨利的照片,他們是最好的朋友,這段友誼發展得比較晚,但變得非常深厚。在這段友誼中,埃裡克慷慨地充當了95歲的亨利·基辛格的導師。亨利是在他講完一個講座的尾聲時,聽到德米斯·哈薩比斯(Demis Haseeb)開始談論人工智慧後,才發現人工智慧的,他決定需要學習相關知識。他給我打電話,我告訴他,亨利,別想了,你知道你沒有任何科學和技術的背景。我告訴他,事實上,你都分不清晶片和薯片(potato chip)的區別。他說,那倒是真的,但是埃裡克答應教我。所以我們非常高興他能來到這裡。他去年來過這裡。這可能已經成為一種年度傳統了。亨利在上周去世了,距今兩年了。施密特:所以他享年100歲,回想這一百年真是度過了多麼精彩的一生。格雷厄姆:他是一個對美國國家安全和世界產生巨大影響的人,也對許多許多人的生活產生了巨大影響,其中一些人曾是他的學生,一些人曾是他的輔導老師,還有許多其他人。因此,埃裡克已經介紹了。我想提醒大家幾件事。首先,我想說,埃裡克是那位首席執行長,他帶領Google從一個理念發展成為世界上的偉大公司之一,這真是一件了不起的事情。其次,他很早就將人工智慧(AI)確定為未來的一個領域,並且Google實際上買下了他能找到的全世界所有的頂尖人才,包括深度思維公司(DeepMind),該公司隨後為Google帶來了德米特裡·卡茨金(Demetri Katsim),他因在Google關於蛋白質方面的研究而獲得了去年的諾貝爾獎。穆斯塔法·蘇萊曼(Mustafa Suleiman),他現在負責微軟的消費者人工智慧業務,是這次收購的另一部分,還有許多許多其他人。關於埃裡克的另一件事,以及為什麼很高興他在這裡,是因為人們試圖理解所有關於人工智慧的說法。大多數聲音最大的人都在推銷自己的觀點。所以當我聽山姆·奧特曼(Sam Altman)或Anthropic的人,甚至現在的穆斯塔法在微軟談論時,他們必須談論他們公司的立場。格雷厄姆:但你拿的是我的書。他們必須談論他們公司的業務,談論他們的未來。他們正在追逐他們認為是前所未有的、彩虹盡頭最大的金礦。因此,很難判斷他們實際上的想法是什麼,以及他們正在說什麼。埃裡克在這個領域已經可以說是晉陞為政治家了,因為他曾在這個領域有重大的投入,但現在他退居幕後,尤其是在與亨利合作之後,他基本上是試圖儘可能清晰、儘可能如實地表達他的看法。因此,我認為他是關於正在發生的事情更有價值的線索來源,勝過聽取那些只顧推銷自己的人的大部分言論。我們先從亨利開始,然後我們將轉向人工智慧,之後我們將聽取現場觀眾的提問。格雷厄姆:埃裡克,你在亨利的追思會上精彩地談到了亨利對你個人生活產生了多大的影響,甚至影響了你提出的問題,那些你認為重要的事情。所以請多告訴我們一些亨利在這段關係中意味著什麼。另外,對於那些沒有機會認識他的人,他們如何才能領略到他的一點點魔力呢?施密特:當我第一次見到,謝謝你,格雷厄姆,一如既往,很高興來到這裡。我認識亨利的時候,他已經八十出頭了。通常情況下,八十出頭的男士會變得有點不太對勁。他有多麼睿智,給我留下了深刻的印象。所以我對自己說,他參加了第二次世界大戰。他獲得了銅星勛章,因為他們是猶太家庭,所以從德國移民或逃了出來。並且參加了戰爭,然後利用《退伍軍人權利法案》來到哈佛,完成了本科和研究生學習,最終成為了這裡的教授。我試圖弄明白,當他處於你這個年紀時,他一定非常聰明。並不是說當時那個建築就存在了。所以這是他在哈佛讀本科時的一段引文。引文是:在每個人的生命中,都會有一個時刻,他意識到,在他青年時代所有看似無限的可能性中,他實際上已經變成了一種現實。生活不再是一片廣闊的原野,四處是森林、高山和誘人的景象,而是變得很明顯,一個人穿過草地的旅程確實遵循了一條固定的道路。他再也不能往這邊或那邊去了,而是方向已經確定,界限也已劃定。這就是他寫下你這個年齡時所寫的內容。當他還是這裡的本科生時,他保持著學院有史以來最長本科論文的記錄。在他提交了關於康德和世界意義的本科論文後,他們制定了一條至今仍適用於你的新規定,即你的論文不得超過350頁。供您參考。這是真的。所以他顯然是一位非凡的博學天才。對於亨利,除了,我真的非常關心他之外,我自己的解釋是,看著他的家人,特別是他的父親——我們對此進行了很多討論——目睹納粹掌權時,德國周圍世界的毀滅。當他們逃離時,他看到了對他父親和父親思想的傷害。等等,亨利在戰後決定盡他所能,避免未來的戰爭。現在,你可以對他的所作所為提出異議或激烈爭論,但你不能否認他的目標不是我剛才所說的。資料支援所有歷史學家都同意這一點。你可以不同意具體的策略。但歸根結底,他尋求的是一個沒有第三次世界大戰的世界。並思考他在20世紀50年代和60年代所面臨的問題。他過去常跟我說起這個小組,他一直認為最有趣的政策問題都發生在小團體中,這是麻省理工學院、哈佛大學和蘭德公司之間的一次合作,他們在20世紀50年代初期發明了“相互確保摧毀”(mutuallyassureddestruction)。我說,我不知道,這個小組裡都有誰?奧本海默,拜託,所有最有名的人。所以他很幸運生在那個對的時代。他顯然是當時在世的最聰明的人之一。他很幸運在家人和自己被殺害之前離開了德國。他很幸運能夠享受到《退伍軍人法案》(GIBill)。他有很多有趣的故事。我最喜歡的一段是,有一天我告訴他,你得去看醫生。他年紀大了。他說,好的。我說,我想讓你去梅奧診所。我說,好的。他是個紐約人。而梅奧診所的人就像中西部人一樣。說話輕聲細語,和藹可親,不像那種很強勢的紐約人。他去了梅奧診所,回來後我說,我很喜歡那裡。我說,你為什麼會喜歡明尼蘇達州羅切斯特市中心的梅奧診所呢?他說,讓我想起了戰爭。我說,什麼?他說,他剛到這個國家的時候,是不會說英語的。他曾在一家製造剃鬚刷的工廠工作。正如所有人預料的那樣,他被徵兵入伍,然後上了戰場。他和一支來自威斯康星州的美籍團體一起。所以他將自己的身份歸於那個群體,他幾乎不會說英語,而且反正也沒人能聽懂他的英語,他將自己歸類到那個群體中。所以他有很多這樣感人至深的小故事。我有很多關於他是如何成為美國人,以及他當然成為美國公民的類似故事。接下來的歷史你們也都知道了。格雷厄姆:嗯,我會說他是一個了不起的人。我有幸在這裡選修了一門課程。作為一名學生。施密特:那是什麼樣的情景?格雷厄姆:1965年,天那,由亨利教導,此後便一直是他的隨行人員之一。我認為關於他最讓我印象深刻的是那種戰略敏銳度,即有能力將一個問題提升到其360度戰略挑戰的整體層面來審視,然後找到政策處理程序可以被影響的切入點。我曾為他的百歲誕辰寫過一些東西,當時每個人都被要求寫一點,一些東西,埃裡克寫了一些,我也寫了一些,我說,真正思考亨利,他並非是,如果你想想,他經常因其現實主義,或者無情的現實主義或赤裸的現實政治而受到批評。但如果你看看他所做的事情,那並非是僅僅為了一個國家的利益而推行的赤裸裸的現實政治。他始終致力於建構一個可行的秩序,以防止災難性的戰爭。他親身經歷了猶太大屠殺和歷史上最致命的戰爭。他預見到了一場可能真正將地球生命滅絕的核戰爭的前景。他身處於冷戰之中,那是當時美國和蘇聯之間所見過的最激烈的對抗。他一直試圖超越這一切,為美國找到一種生存之道。以及對美國而言。為了全人類同胞。所以我想這就是他如何以一種間接的方式觸及人工智慧問題,對他而言,這只是另一代在某種程度上類似的問題。施密特:嗯,他寫過關於康德和意義的含義的本科畢業論文,當他去聽德馬斯(Demas)講話時,他立刻就明白了。他立刻對自己說,這對人類存在意味著什麼?我們今天正在努力解決他在我們首次開始這項工作時20年前就預見到的問題。在人工智慧時代,做人意味著什麼?做孩子、做成年人、做領導者意味著什麼?這對經濟學意味著什麼?這對工作意味著什麼?所有這些。但他核心的論點是,這是一個史詩般的變革,意味著它類似於我們過去在科學革命等領域所經歷的各種重大變革,因為我們人類從未有過一個非人類的、但智力水平與我們相當或更高的競爭者。而我們人類將採取什麼行動是不可預測的。他過去常說,在魔法中會發生的情況是,當人們不理解某事時,他們要麼認為那是一種新的宗教,要麼就會拿起武器。武器。所以你會說,我們是要對人工智慧拿起武器,還是要把它變成一種新的宗教?我說,我希望是宗教。因為我想我能從宗教中受益。02 舊金山共識與技術奇點格雷厄姆:因此,在去年出版的、名為《創世紀》(Genesis)的書——那是埃裡克(Eric)、亨利(Henry)和克雷格·邦迪(CraigBundy)在他去世前所做的工作——其中有一段話明確是亨利寫的,書中說,引述,談到美國和中國,如果雙方都希望最大化其在人工智慧領域的單方面地位,那麼將出現人類前所未見的、由敵對軍事力量和情報機構之間的競爭所構成的局面。今天,在首個超級智能到來之前的幾周、幾個月和幾天裡,一場關乎生存的“安全困境”正等待著我們。所以你已經將這種超級智能視為一種超乎我們想像的生存威脅。請多說一些。施密特:我稱之為舊金山共識。我稱之為舊金山共識的原因是,舊金山的每個人都相信這一點。這可能為真,也可能不為真,但如果你去舊金山,相信除了他們通常的舊金山娛樂活動之外,他們都在做這件事。基本建構是,我們已經經歷了一場語言革命。你明白,語言聊天,GPT,這裡的每個人都知道那是什麼。現在正處於地平線上的智能體(Agents),這些智能體能讓你基本上實現任務自動化。理解智能體的關鍵在於它們可以被串聯起來。所以你可以做這個,然後做這個,再做這個,然後它們都被整合在一起。我為什麼談論智能體?因為我剛才描述了工作流程。而這正是企業所做的、大學所做的、政府所做的,等等等等。然後下一個是推理。現在,推理是人類更高階的功能,而推理革命才剛剛開始。截至今日,可以說適用於人工智慧的規模法則尚未放緩。規模法則基本上說明了,如果你投入更多的資料、更多的電力和更多的晶片,你就會接二連三地看到這種湧現行為。你可以看到這一點,例如,剛剛發佈的Gemini3擊敗了剛剛發佈的OpenAI5,後者擊敗了剛剛發佈的Claude4.5,後者擊敗了DeepSeek,因為他們反正都抄襲了,諸如此類。所以它……以防你們沒注意到,Jim和我三(指代Gemini3)來自Google。是的。我很高興地說,在下一次到來之前,我們重新掌握了主導權。這是非常、非常具有競爭性的。正在發生的是,這些大規模的資料中心建設,順便說一句,它們是美國經濟的關鍵驅動力之一,不僅幫助提升了我們的經濟,它們也在建構這類東西。與我全部的經驗相比,這是一個全新的世界。所以問題是,隨著時間的推移會發生什麼?所以你擁有語言、智能體和推理。嗯,這不是我們所做的嗎?我們做事、我們交流、我們執行動作。因此,舊金山的共識是,在某個時間點,這些東西會彙集在一起,你會得到所謂的遞迴式自我改進。而遞迴式自我改進是指它在自行學習。今天,這已不再屬實。今天,當你建立其中一個龐大的資料中心時,你知道它們是什麼樣子的,你必須告訴它要學習什麼。但人們相信,讓電腦編寫程序、生成數學猜想、發現新事實的能力正在到來,並且有大量證據表明它正在到來。看起來這非常非常近了。許多人相信,在未來一年內,將會出現用於設計的新數學、新的數學家,即人工智慧數學家,供人們喜愛。因此,我們作為一個行業,共同相信這很快就會發生。如果你問舊金山的人,他們會說兩年,這真的很快了。如果你問我把它加倍到四年,這真的很快,所以它正在發生,而且發生得非常快。我希望,亨利當然希望,我們希望它能以美國的價值觀和人類的價值觀來建構。在我看來,有一個臨界點,我們對此進行了大量討論,即某人需要站出來說,我們做得太過火了。這裡的危險太大了。我們不希望將該年齡(權限)賦予電腦,我們希望人類負責管理它。關於那個臨界點在那裡尚未達成一致,但我們的書花了大量時間討論那個點可能在那裡。另一個例子是,你發現電腦已自行決定獲取武器的存取權。這顯然是一個,就像每個人都會同意的那樣,不是一個好主意,人類擁有武器已經夠糟糕了。想像一下如果電腦擁有武器,以及其遵循的標準是什麼,你可以想到許多其他此類例子。根本上,是關於人類能動性的問題。我們也花了大量時間討論這對兒童的影響。我們正在對人類發展進行一項大規模實驗,向那些可能還沒有自我認同的年輕人(當然不是成年人),部署了這些極度令人上癮的系統,無論是在iPad上、手機上還是其他裝置上,他們很容易被操縱。那麼,一個最好的朋友是非人類的兒童意味著什麼呢,除了可能成為一個超級書呆子?但我不知道。這意味著什麼?我們沒有任何資料。我們不知道這對年輕的男孩和女孩意味著什麼,對他們的發展意味著什麼,對他們的人際交往能力意味著什麼。他們最終會反叛,然後說,我只愛人嗎?我討厭電腦嗎?孩子們會反叛的。我們只是不知道。格雷厄姆:那麼,你能切換到下一張幻燈片嗎?對不起,我有遙控器,但我把它留下了。你們能讓下一張幻燈片放出來嗎?好的,謝謝。所以在這裡,就是所謂的“基辛格挑戰”。這是亨利,1969年,尼克松在1968年當選,於1969年1月就任總統,任命時任哈佛大學教授的亨利為他的國家安全事務助理。正如你們在這裡看到的,亨利寫道,任何在60年代末上任的人,都無法不對和平所面臨的空前嚴峻的挑戰感到敬畏。然後到最後一點,沒有什麼比防止核戰爭的災難更重要的職責了。因此,隨著核武器的不斷發展,這成為了他在冷戰中面臨的一個決定性的挑戰,但正如引文所說,沒有比防止核戰爭更高的職責了。03 美中競爭與戰略分岔施密特:那麼,當我們試圖思考美國、中國和人工智慧時,這在當前如何適用呢?嗯,我想說,沒有什麼比維護人類的能動性和人類自由更重要的職責了,我們集體最為珍視的事物。我想這對你們所有即將畢業的人來說將是一個核心挑戰。你們所有人都將面臨這些問題,它們是複雜而微妙的。想像一下,如果網際網路是由中國發明,並且它沒有今天網際網路所具有的那種開放性,而是處於中國的網際網路之下。看起來中國正在推行與我所談論的不同戰略。在我最近一次訪問中國時,我的行事方式是,我向工程師提出技術性問題,因為他們不會對你撒謊,而我對其他所有人則不那麼確定。我最終弄清楚了中國人在做什麼,他們真的非常專注於將人工智慧應用於他們的業務。他們將比我們更具競爭力。我們將輸給中國,因為他們在每種產品中都驚人地採用了人工智慧,他們只是不懈努力,工作非常刻苦。這被稱為“996”,即晚上9點到,每周工作6天。順便說一句,在中國是非法的。在美國也是非法的,但實踐得卻不少。他們來了!它們似乎沒有像舊金山共識那樣專注於超級智能和我在描述的路徑,當然,這可能會改變。所以看來這兩者正在追求不同的道路。對於你們在研究生甚至本科生(考慮到這是哈佛)階段的人來說,一個問題是開始弄清楚當這些分岔的道路遇到障礙時會發生什麼,因為兩者都有。一個例子是,在美國,我們基本上沒有生產新的電力,因為提供電力非常困難。中國擁有無限的電力,這要歸功於他們在可再生能源等方面的巨大投資。他們在過去五年中建造了大約120吉瓦的新可再生能源,大概是這個數字。格雷厄姆:在中國,每天,每天,電網都新增了一個吉瓦的電力,全年都是如此。施密特:這相當驚人。在這裡,每一天,所以我的觀點是,順便說一句,舉個例子,一個核電站大約有多大,1.5吉瓦?再次使用這些數字,這就是中國正在發生的電力革命的規模。我們在美國建了多少這樣的電站?零!而且我們肯定正在因為這裡所有人都知道的原因,在可再生能源競賽中輸給中國。所以他們擁有很大的電力,我們沒有。我們有很多晶片,他們沒有。這為競爭奠定了基礎,而每方都會追求不同的道路。其中一個技術問題,有一種叫做“擴散”的東西,你所做的就是拿一個非常強大的模型,我們以目前的頂尖模型Gemini3為例,你向它提出一萬個問題,然後取其答案,系統就可以從這些問題和答案中學習到足以模仿的程度,而無需承擔進行大規模訓練的開銷。那個大模型。再次思考中國將要採取的戰略以及美國可行的戰略,可能非常重要。有趣的是,這兩個國家都依賴私營部門來完成這項工作。在亨利那個時代,你可能會認為會動用政府的力量。但事實上,我們的政府無法這麼快地推進,補償制度等等也是如此。事實證明,這對中國人來說可能也是如此。我不確定在安全層面這是否屬實,但我沒有在中國發現任何大型、奇怪的曼哈頓計畫式項目,儘管許多私營公司的人員都在為國家安全而努力。格雷厄姆:那麼就人工智慧這個總體話題,請告訴我們,花一兩分鐘時間,最讓您興奮的、在未來一、兩年、三年的可見範圍內,有那些積極的方面?施密特:嗯,第一個問題是,為什麼會出現這種瘋狂?這一定是泡沫,而且它將會破裂。不,這不是泡沫。恰恰相反,它被低估了,因為你正在從根本上實現業務的自動化。人們投入這筆巨額資金的原因是為了自動化他們業務中無聊的部分,或者他們認為重要的部分。無論是帳單、會計、產品設計、交付、庫存、管理還是其他任何方面,人們都在對其進行自動化。那裡有很多東西。想想醫學。想想氣候變化、工程學、新科學。這很非凡。格雷厄姆:那麼,在你看來,那些是你能預見到而我們其他人可能看不到的事情最讓你興奮呢?我們都能在自己的想像中看到我們對它的看法。然後我們會聽聽埃裡克怎麼說,是的。施密特:當我開始時,在我上高中的時候,我是個早期程式設計師,我喜歡編寫程式碼。當我上大學和研究生院時,我那時只想做那件事。我忽略了所有這些歷史方面和類似的事情。那時我就是書呆子的代名詞。而我在20多歲時所做的一切,那些讓我走到今天的位置的事情,現在已經完全自動化了。我所做的程式設計的方方面面,設計的方方面面,現在都由電腦完成了。我最近讓它為我編寫了一個完整的程序,我坐在那裡看著它生成類和互動的細節等等,心想天啊,我的時代結束了。我想,我從事程式設計已經55年了,親眼目睹一個從開始到結束的過程發生在自己眼前,而自己還活著,這真的非常深刻。我現在可以說,電腦科學不會消失,電腦科學家——至少在他們被取代之前——將負責監督這一切。但是,這些系統所能做到的程式碼生成能力是革命性的。這意味著你們每一個人口袋裡都有一台超級電腦和一個超級程式設計師。現在,這裡沒有人是恐怖分子,使用負面例子總是更容易。有很多,我用一個刻板印象來說,就是一些住在地下室的年輕人,他們的母親給他們送食物,然後他們就沉浸在相當於加密貨幣、4chan、偏執狂,隨便什麼,任你選擇的環境中。他們都有能力使用這些工具來建構極其強大的系統,網路攻擊,其他事情,隨便他們關心什麼。有一些證據表明,我認為是曼喬內(Mangione),那個殺了保險高管的傢伙,對這些東西很著迷。有些人正在研究他的一些著作,當然他現在在監獄裡,但表明他受到了某種影響。現在,我不是在證明因果關係。但這正是人性中最黑暗的一些角落的寫照。你把這類工具交給那些人。我們必須做好準備。現在,業界對此非常清楚,我們正在努力解決這個問題。防禦系統能夠正常運作這一點非常重要。順便說一句,人工智慧的最終解決方案是人工智慧對抗人工智慧,即好的對抗壞的。這就是它(解決之道)的全部意義所在。04 開源、閉源與未來戰略格雷厄姆:好的,請能放下一張幻燈片嗎?我想問一下您如何看待中美在人工智慧領域的競爭。如果幻燈片不夠清晰,我深表歉意,但它表明,如果我們看一系列指標,你會發現24年1月的表現差距比現在要大得多。我們如何解讀這一點,以及我們如何解讀可能的未來走向?施密特:所以圖表是正確的,但受此影響的人聲稱這種情況不會持續太久,因為推理革命需要大量的晶片以及舊金山那些人所發明的許多“魔法”(此處“魔法”指核心技術),並以此為代號,他們認為差距將會擴大。我自己的觀點是差距會擴大,但原因不同。我認為中國的主要關注點,如我所提到的,是將人工智慧嵌入到萬物之中,如智能烤面包機、汽車等等。他們的進展速度比我們快得多。我認為絕大多數人形機器人將由中國人工智慧提供動力和製造,原因很簡單,因為他們知道如何降低成本。他們的供應鏈令人難以置信。他們的成本控制,他們工作非常努力,諸如此類,所有這些都算在內。所以我的猜測是,差距可能會擴大,但這才是真正的問題,作為消費者,你最終會因為一個中國產品而不是美國產品獲得更好的體驗嗎?答案是,從裝配和光潔度來看,可能中國的產品會更好,這一點令人擔憂。格雷厄姆:所以讓我再深入探討一下這個問題。所以人們正在就半打左右的問題下注,而你已經對此進行了深入的思考。一個問題是,我們是會押注於電腦晶片、堆疊還是大腦?另一個問題是,我們是會押注於封閉系統還是開放系統?還有一個問題是,我們是會押注於在通用人工智慧(AGI)還是擴散模型和應用方面努力?施密特:所以如果你看看這個光譜,如果我看中國的那一部分,DeepSeek認為,200個有頭腦的人就可以擁有一個成本僅為OpenAI千分之一的推理機器。現在,來自同一領域還有其他六條小龍正在出現。所以這一點讓我感到擔憂。關於封閉與開放,如果我沒記錯我們上次談話的內容,你幾乎得出結論,開放最終會變成封閉,但我們所有的公司都是……大多數是封閉的。那關於這一點呢?第三,也許如果出現了這種通用人工智慧(AGI)的突破,所有其他事情都將不再重要。但如果擴散和應用已經在其他領域發揮作用,那麼這只會讓我們在競爭中再進一步。擴散指的是,我回顧一下,擴散本質上是指許多對(資料)進行學習,並像我們討論的那樣進行學習。我個人的看法是,我不太確定,但我認為,那些大公司最終不會發佈它們最大的模型。這樣做太危險了,所以它們會對其進行子集化。我就會這麼做。現在,我假設他們會做出那個決定。我認為最有趣的問題是開源與閉源。對於那些沒有這方面背景的人來說,開源,開放權重。開源是我幾十年來一直從事的工作,當你使用任何形式的電腦時,你使用的許多軟體都是由開源開發的,這意味著原始碼被公開發佈,人們會共同推動其發展。圍繞此有一個完整的運動,我就是其中一員。因此,在我看來,我堅定地支援開源。大型公司大多出於經濟原因而採用閉源模式。基本上,如果你從金融市場借款500億美元,他們希望收回本金,而你卻告訴他們,‘順便說一句,我們要免費發放所有模型’,你可能無法獲得回報,這可能不是一個很好的法律或財務策略。因此,美國的模式似乎演變成了閉源模式。奇怪的是,中國的模型是完全開放的,權重開放,原始碼開放。為什麼?我不知道。一種可能的解釋是,中國政府已經意識到他們在閉源競爭中處於劣勢。得不到硬體。而開源,因為它免費,可以實現技術的廣泛傳播。因此,開源和權重開放的後果之一是,地球上絕大多數人將使用中國的模型。為什麼?因為它們是免費的,而且大多數國家負擔不起計算能力和資料中心等等。他們只會免費獲取中國的模型並將其嵌入使用。現在,這算是一個問題嗎?絕對是。因為它帶有中國的價值觀、中國的培訓、中國的偏見等等。我們更希望它是美國的。我們將拭目以待。在美國有一些開放原始碼專案是我支援的,但它們無法從公開市場籌集到所需的100億美元才能達到它們的目標。所以它們是瑰寶,但尚未達到規模。我主張美國政府應該幫助資助它們。我主張慈善家應該幫助資助它們,但我真的不確定。格雷厄姆:好的,這非常有幫助。那麼最後一個問題,然後我們將聽取觀眾的提問。如果你要挑選兩到三個問題,供對人工智慧和地緣政治這一領域感興趣的研究生或本科生思考,你能否給出兩到三個問題,以便你下次來時,我們能請到一位對這些問題有所解答或部分解答的人來談談?施密特:所以有幾個,嗯,再次說明,我們這裡面對的是世界上一些最聰明的人。那麼第一個問題是,在人工智慧時代,成為人類意味著什麼?這是一個可以寫多篇博士論文的問題。所以基本上,研究歷史,研究哲學,研究人們如何工作,研究經濟學,然後弄清楚這項新技術將要做什麼。在我的行業裡,因為我們沒有上過這些課程,我們總是忽略這些事情,你們有能力以某些方式回答這些問題,如果我們偏離了軌道,也許可以用這些來提醒我們。第二個問題與中美之間的競爭有關。為什麼是中美?只有這兩個國家會產生影響。原因在於你需要巨額的資金和龐大的人口。儘管我很喜歡歐洲,但歐洲沒有組織起來,沒有足夠的人口,沒有足夠的資金來做到這一點。印度目前還沒有足夠的組織能力來做到這一點,儘管他們正在努力。而且大多數其他國家沒有足夠的資金,沒有足夠的人才,沒有合適的大學,等等。那麼第三個問題更多地與衝突有關。在一個擁有人工智慧的恐怖分子,以及擁有人工智慧的政府的世界裡,衝突會是什麼樣子?針對一個大國的恐怖襲擊會是什麼樣子?顯然,我不是在提倡或支援這種行為。這是一件可怕的事情。我們如何防範它?中國與美國的衝突也是如此。但俄羅斯與烏克蘭呢?歐洲與某方的衝突呢?試圖理解在人工智慧驅動一切的演算法戰爭中衝突是如何展開的,這是一個非常、非常富有成效的研究和新思想領域。這只是剛剛開始。格雷厄姆:這是大家在此期間可以著手研究的好課題。我們從這裡開始。請做個自我介紹並提一個簡短的問題。05 觀眾互動與深入問答觀眾:大家好,我叫特蕾莎。我是加拿大這所學校的二年級學生,正在上艾莉森教授的國家安全課。我們在一堂課上討論了網路安全,以及支撐美國國土安全部的大部分技術。都是由私營企業掌握的。那麼,您認為那種治理模式能真正幫助協調政府和私營公司,尤其是在發生類似人工智慧類型的緊急情況時?鑑於我們經常談論美中競爭,儘管存在技術和投資方面的競爭,但政府模式也存在巨大差異。那麼,您認為這兩種治理模式在那些方面會產生影響呢?在國土安全網路危機方面。施密特:嗯,首先,我認為在川普政府的領導下,我們不會看到對人工智慧進行太多監管。這一點相當明確。在中國,似乎是允許這些公司為所欲為。儘管他們有關於各種事務的法律,但他們似乎沒有在執行。所以看起來這是一場全面爆發的商業衝突。我最大的擔憂是網路攻擊。如果你能像我所見到的那樣編寫程式碼,而且我的世界裡的每家公司現在都將程式設計師和人工智慧程式設計師結合起來使用。這非常非同尋常。這發生得非常快。看看ClaudeCode,比如最新的它目前處於領先地位,來自Anthropic公司,還有其他一些正在趕上。當然,Gemini聲稱它有競爭對手,但目前來看,ClaudeCode略勝一籌。如果你會寫程式碼,你也可以編寫網路攻擊,因為目標函數很簡單。就是不斷地寫程式碼,直到你把某樣東西搞壞為止。如果你有足夠的硬體和足夠的能源,你就可以一直這樣做下去。我認為未來將會有更多更多的網路攻擊。而且,這不一定來自政府。也可能來自恐怖分子和邪惡組織。我認為為這種情況做好準備將是我的首要關切。觀眾:感謝您的到來。我是大衛·魏德曼。我是MPP2。您提到了當前閉源模型的強大之處。如果我說錯了,您可以告訴我。我認為開源模型比當前的閉源模型落後大約半代。將開源與閉源的對抗定性為美國與中國之間的問題,可能有點危險。我的擔憂是,您提到的那些矽谷人士正在尋求監管俘獲,這就是他們想圍繞開源模型散佈恐慌的原因。如果我們尋求對閉源模型實施禁令,在全球範圍內建立這項禁令需要做些什麼?施密特:我想我不同意您的問題,我很抱歉。我看不到美國在開源方面的領導地位,而我只看到了中國在開源方面的領導地位。我認為那是事實。所以我認為在開源方面不存在監管俘獲。而且我認為,再說一遍,在川普政府的領導下,你不太可能看到對閉源公司進行重大監管。但如果你理解我的意思,我認為閉源決策在很大程度上是由經濟驅動的,而非政策驅動的。從字面上講,你根本做不到,想想這些東西的成本。我們談論的是100億、200億美元。如果沒有這個(資金),你將如何籌集這筆錢?格雷厄姆:而且我認為,埃裡克,這回到了,如果我們正在列出我們要問的問題清單,我會補充一點:融資考慮因素如何影響戰略選擇?因為如果這僅僅是由於財務結構上的一個偶然巧合,那並不一定能反映國家利益。那將僅僅反映現有的資本市場。施密特:我認為重要的是要承認,美國擁有迄今為止世界上最非凡的資本市場金融體系。我認為,交易量的60%和價值美元的90%等都在美元計價。因此,那些非美元計價的國家確實畏懼這個金融市場的力量。我們在籌集資金的能力上看到了這一點。當我訪問中國時,與我的朋友交談時,這一點非常清楚。他們無法接觸到如此深度的金融市場。他們實際上拿不到資金。三年前相比,中國的風險投資融資額減少了五倍。現在有很多原因,不只是我們世界,也不只是美國。但如果沒有這種資本獲取管道,開發這些大型模型將非常困難。需要進行複雜的訓練。現在,你可以想像我所說的一切都會隨著底層演算法的改變而改變。有人正在研究新的、成本更低的非Transformer模型。許多人對人腦的能源效率與這些資料中心的成本進行了比較。相信我們的大腦很複雜,但它們並不耗費太多能源。可能又會出現一項突破,從而改變我們正在討論的這種計算模式。請說。觀眾:我叫法瓊·塞邁亞庫(FationSemayaku),是哈佛甘迺迪學院的MCMPA學生,來自阿爾巴尼亞。在人工智慧時代,您和基辛格博士描述了一個人工智慧系統開始為我們解釋現實的世界。如果人類的戰略判斷,那怕是微妙地,被機器生成的框架所塑造,那麼全球事務中的責任之錨又將落在何處?換句話說,當一個受人工智慧影響的決策產生現實世界的後果時,誰來承擔道德責任——是採取行動的人類、部署該系統並影響了認知的機構,還是演算法本身?而且,民主國家應該如何在這種模糊性成為地緣政治弱點之前重塑其制度?施密特:一個措辭非常精妙的觀點。所以我擔心民主的未來是不確定的,僅僅因為,或者舉一個美國的例子,我們相信言論自由,我當然支援美國絕對的言論自由,但我不支援增強的言論或演算法言論。那麼界限在那裡呢?如果我說了一些錯誤的話,然後演算法因為我的主張很離譜而決定將其廣泛傳播,這在民主社會中是恰當的嗎?你可以想像,我再說一遍,我不是在搞黨派之爭。我認為政治體系中的任何一方都可以利用這一點達到任何效果。現在生成人們深信不疑的虛假資訊的能力變得如此簡單,我希望答案是人類能夠接受更好的教育和批判性思維。但你可以想像,如果我是一個邪惡的人,我希望我不是,我坐下來開始向每個人灌輸我特定的、獨特的資訊,我可以通過無情的複製和重複來壓倒你對真相的信念。我們知道存在一種所謂的錨定偏見。如果你先聽到某個資訊,你就會以此為基準進行判斷,所以如果我設法先讓你知道大樓著火了,儘管它沒有著火,我也不是在犯罪。如果我能先讓你接收到這個資訊,你就會從那個點開始錨定。你看到了這裡的危險。這是非常真實的。我認為,回答你的問題是,每個民主國家都會面臨這個問題,而且我認為民主國家將根據文化價值觀和對威脅的理解做出不同的決定。你不會看到民主國家有一個統一的答案。觀眾:非常感謝您今晚蒞臨此處。我叫埃莉諾·克蘭(EleanorCrane),是貝爾福中心的研究員。所以我想問,首先,您能否就像您我這樣的普通人在人工智慧的非常長遠發展中的作用發表評論?我們的作用將變成什麼?而且,我們經常因為價值體系的原因,將中美之間的爭論定性為一種競爭。但從協作的角度來思考這件事是否有價值呢?也許更有趣的是,您提到歐洲可能有些雜亂無章,但他們也擁有巨大的實力和巨大的人才。比如法國的明斯特拉(Mistral)等等。在那方面與他們進行協作是否有所作為?施密特:所以有幾點評論。關於歐洲,我是Mistral的第一位投資者,所以我非常看好Mistral。Mistral無法像美國那樣籌集資金。他們有同樣的問題,並且正在努力尋找解決方案。關於美國和中國,因為亨利的原因,我花了大約五年時間研究中國的同業競爭。我曾認為有可能與中國走得更近。後來,通過他的工作以及其他人的努力,我發現中國人比我們更害怕與我們競爭或合作。舞蹈需要雙方配合,我認為這是極不可能的。我希望在你們有生之年能明白我們必須共存,但由於顯而易見的原因,這兩個體系極不可能成為最好的夥伴。我想談談關於人類在非常長遠來看有什麼用處這個問題。非常非常清楚的是,人類是社會性動物,希望和其他人在一起。同樣非常清楚的是,我們有一些必需品,比如醫療護理等等,將由人類提供。我認為,用一種比較粗略的方式來說,大多數其他職能都可以由電腦來完成。我們會允許它們這樣做嗎?那是你的研究要解決的問題,那條界限在那裡?我以前的例子是這樣的。那時候我在Google建構Waymo。所以這個思想實驗是,紐約市除了Waymo和競爭對手的自動駕駛汽車之外什麼都沒有。而Google和其他公司的工程師已經找到了完全最佳化交通的方法。那些街道是不會改變的。你擁有每條街道上絕對數學上真實的最高負載,而且它是無縫的。然後你有一個緊急情況,一個孕婦,隨便什麼,她必須去醫院,需要一個例外。車裡是否有例外按鈕,上面寫著你必須違反所有規則,因為發生了什麼事情?施密特:現在,如果車裡沒有例外按鈕,那就是電腦對人類的支配。而人類將會反抗。如果我回到鎬頭與宗教的對比,人類會反抗的。這將被視為政府的壓迫,在這種情況下,是紐約市的市長,無論你想用什麼比喻,以及電腦公司本身。如果系統另一方面能夠適應人類的需求,並說,啊,我們有實際的醫療緊急情況,而不是有人吸毒或者隨便什麼人在胡鬧,或者某個孩子在玩弄按鈕,它會進行推理,然後說,我的天那,我必須盡一切努力將這個人送到醫院。那麼它就會被更廣泛地接受。因此,這很大程度上取決於它是否能與我們的人類經驗和需求相結合。它會限制我們的自由,還是會增加自由?我已經得出了一個看法。我現在年紀大了,相信維護我們的自由,我們思想、行動、集會、聚集的自由,所有這些事情,真的,真的非常重要。如果它們侵犯了我們的自由,那麼它們必將遭到反抗。而我將領導這場鬥爭。觀眾:我叫伊爾瑪·阿夫羅斯,我來自印度。你在談話中提到了印度。我很幸運能成為埃裡森教授的學生,並向他學習。我的問題是如何將美國和印度結合起來。印度擁有一些非常優秀的人才。我們如何才能將我們兩國聯合起來,以創造一個民主蓬勃發展的世界,並且這對我們兩國都是一個雙贏的夥伴關係。施密特:我非常同意。我在印度待了很長時間,而且確實,由於印度的資訊技術人才(IATs)和人才質量,印度的天賦深度是非凡的。然而,計算能力的深度卻不是。去年,我們做了一個估算。對於10億人口的整個國家來說,只有大約1000個圖形處理器(GPU)。因此,我和其他人已經組織起來試圖解決這個問題。所以我對最近的貿易戰感到警惕,我認為那次貿易戰讓印度和美國都倒退了,這個問題需要得到解決。我不理解貿易戰,我的立場是這正在傷害我們。印度是我們的天然夥伴,它是一個民主國家。它是一個混亂的民主國家,但我們也是。在矽谷,與我共事的多數人都是。基本上是南亞血統,來自印度或一些其他國家。所以至少在矽谷,印度人正在蓬勃發展,我希望與他們實現最緊密的融合。格雷厄姆:謝謝。觀眾:請說。我叫喬希。我是甘迺迪學院的一名MPP2(二年級公共政策碩士)。埃裡克,您早些時候概述了兩種國家戰略:推進前沿技術或推行應用普及,但理想情況下您希望兩者兼顧。那麼,我們來談談在美國的採納情況。目前,企業採納的主要障礙有那些?這會因行業而異嗎?政府應該做些什麼來幫助解決這些障礙,如果有的話?施密特:政府通常在這方面做得不太好。業界認為存在一種叫做“技術積壓”(technologyoverhang)的現象,即我們——你們友好的業界——已經開發了比你們使用更多的工具。這是我們的看法,它是否屬實可以再討論。而且很多問題似乎是技術採納的準備度,以及大部分這些東西都是軟體,很抱歉這麼說,但大多數公司都沒有很好的人才,還有內部所需進行的變革。我個人相信,這項技術的採納問題只是一個暫時性的問題,隨著新首席執行長的上任和贏家的出現,美國非常高的競爭壓力將促成這種採納。在受監管的行業中,你很少看到技術被採納,因為監管被用作不創新的藉口。但在那些硬核的、具有創新性的行業中,我認為這個問題會得到解決。但總的來說,我的觀點是,我不希望政府做太多事情,因為我不認為那會有幫助。有幫助的將是讓每家企業都明白,如果它們想要賺錢(這是資本主義的願景),就需要更深入地使用人工智慧。請記住,你可以通過人工智慧來定位你的客戶、服務他們、瞭解他們、與他們交流等等。這其中有很多負面問題,例如,它可能導致公司裁員。有很多低端工作崗位被電腦取代的例子,這顯然是工作崗位流失。這是一個社會問題。但從採納的角度來看,答案只是時間問題。觀眾:我是電腦科學專業的一名三年級博士生,研究方向是人工智慧。我的問題是關於您剛才提到的中國對企業人工智慧自動化的強烈關注。我猜在矽谷,似乎每天都有新的初創公司出現。都是大型種子輪融資,目標是針對工作流程的某種自動化。我們也有那種朝九晚九到朝九晚六的潮流。您認為中國人工智慧自動化業務中有一個關鍵的區別點是什麼,是您認為美國需要迎頭趕上,或者至少是現在的矽谷初創公司需要追趕的方面嗎?施密特:您的博士課題是什麼?觀眾:我研究的是大型語言模型的推理能力。施密特:太棒了。觀眾:那麼您對通用人工智慧(AGI)的時間預期是多久?我估計大概需要六到七年。施密特:您看,這不是舊金山的共識,而是東海岸的共識。很好。我們拭目以待。您可能是對的。我認為那個……我想,這與這些夢想的宏偉有關。當我在中國時,我聽到的言論與在加利福尼亞聽到的不同。在加利福尼亞,人們說兩年內世界就會改變,沒人準備好,事情發展如此迅速,諸如此類,正是這種言論在驅動,而且是自我複製的,它是一種信仰體系,就像一種宗教。現在,它總是比夢想家們說的要花費更長的時間。我在中國聽不到這種說法。這有明顯的不同。施密特:舉個例子,關於推理能力,你知道Deepseek在R3上做了什麼。他們做了一項了不起的工作。他們發明了一種新的有監督的微調方法。真是非常非常聰明的做法。你只是在國家層面上聽不到這種聲音。順便說一句,DeepSeek是中國的國家級佼佼者。他們現在確實,他們已名列著名公司名單之列。他們正在獲得巨額資金。上次我和他們會面時,他們說,我們已經解決了我們的硬體問題,而“硬體問題”的暗語就是政府。他們只是會給他們大量的晶片。沒錯。歡迎來到一個共產主義國家。格雷厄姆:好的。那麼,這位女士,請到這個頻道來。觀眾:你好,非常感謝你的到來。我是索尼婭。我是工商管理碩士和政策學院的雙學位學生。這可能是一個稍微更離奇和開放性的問題,但你談了很多關於成為人類意味著什麼,我認為其中很大一部分就是意識。我很好奇,當我想到意識理論時——這些理論顯然定義得非常模糊不清——人工智慧正越來越多地觸及這些理論的邊界。因此,如果說有什麼需要,那就是我們需要一場關於我們如何思考意識的革命。施密特:但我很想知道,您如何看待人工智慧中的意識,以及您是否認為人工智慧有可能已經或將會變得有意識,那會是什麼樣子,以及在這種情況下,模型的福祉會是什麼樣子?讓我問,讓我問你一個簡單的問題:我們假設,我將把格雷厄姆算作有意識,作為回報,他似乎有意識,作為回報,格雷厄姆會把它給我。為了論證的目的,電腦就在桌子上,我們問電腦:“你有意識嗎?”它回答:“是的。”那麼,你這位哈佛聰明的研究生,請想出一系列問題。它能正確回答所有問題。我們怎麼知道的?你怎麼能知道這台電腦是有意識的?你如何理解它的內部推理狀態?現在,你可以探查它推理工作的方式,人們現在正在這麼做。他們所做的是觀察權重結構中所謂的超級節點,以觀察它是如何實際做出這個決定的。所以也許你可以通過檢查來發現意識,但這只是推測。所以我與一些神經科學家坐下來,因為我不知道這個問題的答案。我問,意識是如何演化的?他們的理論,也僅僅是一個理論,是當異構系統協同工作並不斷發展,並對彼此產生感知時,意識就會演化,人類意識之所以演化,是因為我們需要理解我們是某種存在,本我(id)、自我認同(identity)等的產生,對於控制這個系統是必要的。現在,這沒有辦法證明。所以答案是,我不知道。但這向在場的各位提出了第四個需要思考的問題。這裡有兩個問題。第一個,它是如何運作的?第二個,你如何驗證它?格雷厄姆:我不幸地肩負著宣佈我們已到最後時刻的責任了。你想再待五分鐘嗎?再待五分鐘。我答應過你的,我答應過給你安排日程的人,我會讓你脫身的。所以請。簡短的問題和簡短的回答。觀眾:好的,謝謝你,埃裡克。我是來自哈佛商學院的索恩,一名二年級學生,在攻讀工商管理碩士之前,我也有國際關係背景。您是否確信需要一個國際原子能機構(IAEA)等級的國際人工智慧機構?所以我的問題是,美國國務院、五角大樓以及類似機構需要如何調整自身,為即將到來的超級智能時代做好準備?我的第二個稍微帶點風險的問題是,如果您今年夏天或冬天正在尋找人來協助您研究這個課題,我將非常樂意效勞。施密特:我喜歡有勇氣的人。那麼關於國際能源署(IEA)的問題。有一群非常親近我的人得出的結論是,我正在回答的這些問題的唯一解決方案是建立一個相當於歐洲核子研究中心(CERN)的機構。這個想法是,我們所有人,包括中國,包括每個人,都聚集在一起,把所有資源都投入其中,彙集所有頂尖的頭腦,共同致力於此事,從而建立一個偉大的未來,因為這對人類的好處是如此巨大。開始考慮消除所有疾病,解決我們面臨的真正棘手的問題。我們有梅根在這裡,她專精於能源問題,以及所有這類事情。我認為這可能相當……你可能會說,這可能相當不可能發生。然後下一組人說,那麼我們需要一個國際原子能機構(IEA),它本質上是一個針對核能的強制性檢查小組。進入這種情景,你需要去,這個小組將訪問每個國家每家公司的資料中心和演算法。現在,請記住,維也納小組是在經過15年的談判(包括像亨利這樣的人)以及在廣島和長崎投下兩枚原子彈之後才發生的,這兩次事件的恐怖性我們都可以同意。我們還沒有遇到過這樣的例子。我知道有些人會說以下這些話,他們說這話並非出於惡意。他們說,我們不會,我們將發生一個事件,迫使實行這個國際原子能機構的事情,而我們希望那是一個車諾比等級的事件。我說,那意味著什麼?他們說,沒有那麼多人死亡,與核攻擊相比。因此,在我所處的圈子裡,存在一種與此一致的思維傾向。但我認為,首先,我認為沒有人知道。而且,在出現真正的危機之前,各國不太可能容忍這種情況。我以前說過,在氣候被破壞、地球融化、海平面上升的20年後,將會召開一個所有大國齊聚的會議,人們會在會上說,我們真的把事情搞砸了,現在我們必須修復它。所以我想,對於一個全球性的挑戰和解決方案來說,是存在先例的,但過程非常混亂。它不是理性地完成的。它不是像你我雙方達成一致那樣。必須存在某種危機和某種政治動態,而且情況可能會相當嚴峻。格雷厄姆:讓我們為下一代創造一個機會。讓我們趕緊把這件事辦完。要問那三個問題嗎?只問你的簡短問題。我們請埃裡克來總結陳詞。觀眾:您好,感謝您抽出額外的時間。我叫凱文。我是法學院二年級的學生。我的問題是關於自動化和就業的。幾個月前,薩姆·奧特曼接受採訪時說,他暗示如果某件事可以被自動化,那麼它可能從一開始就不是一份真正的工作。我想聽聽您對這個說法的看法,以及您是否同意這個前提,即如果某件事可以被自動化,它是否應該被自動化?另外一個相關的問題是,如果您不同意,我們社會有那些方式可以決定我們應該自動化什麼、不應該自動化什麼?格雷厄姆:好的。請講,菲茨。觀眾:晚上好。我叫格里斯亞姆。我是中級職員,公共事務碩士。而且我曾是Google的員工,所以很高興見到您。我的問題是關於演算法外交的。就像基辛格博士過去常說的那樣,建設性的模糊性和人類的停頓是絕對必要的,但是當人工智慧是二元的,我們是否正走向一個衝突升級在計算上變得不可能的世界?這是否會推動一種我們可以更加努力推進的新演算法外交?觀眾:謝謝。我叫卡尼什。我來自哈佛商學院。我的問題是關於倫理超級智能的。首先,你為什麼不相信如果美國開發出超級智能,其他國家(比如中國Deepseek上做的那樣)也會跟隨並能夠複製它?其次,如果我們試圖為其注入倫理,那麼如果其他人提出了一個不講倫理的超級智能,它難道不會比美國試圖開發的受約束的超級智能模型更自由、能力更強嗎?施密特:抱歉,你剛才對你的問題再說一遍好嗎?觀眾:我想問你對薩姆·奧特曼(Sam Altman)引言的看法。謝謝。施密特:是的。處於這個層面的人們常常忘記的一點是,人的尊嚴包含著目標。而大量的職業為許許多多的人提供了目標。這些職位的消失是一場巨大的危機,不是在財務上,而是在情感上,在意義感方面。因此,為了讓我們度過難關,我們將不得不解決這個問題,我們將不得不真正做正確的事情。而正確的事情將是更好的工具等等的某種組合。我對就業問題沒有那麼擔心,因為我們正在製造更少的人類,而我認為這是一場重大的危機。總的來說,你們這一代人生的孩子比我這一代少,而我這一代人生的孩子又比我父母那一代少,以此類推。我們需要更多的人口。部分原因是我是個商人,所以你需要更多的顧客。但重點是我們現在需要更多的人力。如果我們的人力減少,那麼就會出現空缺的職位,沒有人來填補它們。人工智慧可以幫助那些尚未準備好從事某項工作的人,讓他們做好準備。觀眾:你對未來Google員工(Googler)的寄語是什麼?不,是演算法、外交、演算法外交和計算。施密特:在你問題的預設前提中,你將演算法描述為二元的。如果你想到1971年基辛格提出“戰略模糊”時,你認為一兩年內電腦能否發明“戰略外交模糊”,考慮到它已經被實踐過了?我認為答案是肯定的。我認為演算法正變得越來越智能,只要這是一個過去就存在的概念,它可能就能想出應用它的方法。我不同意你的看法,認為它像你的問題所暗示的那樣是二元的。超級智能。我認為是一樣的。回答,某種形式的超級智能將會出現。我自己的觀點,這可能與共識不同,是我們將會開發出傑出的人工智慧物理學家、傑出的人工智慧生物學家、傑出的人工智慧化學家、傑出的人工智慧作家、傑出的人工智慧歷史學家。但是那個概念,以及將驅動它們的系統,如果你在1902年是愛因斯坦,擁有當時可用的數學知識量,你是否會有那種智慧去利用今天的演算法發明狹義相對論,這一點也遠非顯而易見。在業界有一種觀點認為,這是下一個真正難題。對此有各種各樣的理論。一個答案是你可以只做重複。你可以不斷地提問,就像猴子敲擊鍵盤那種方式,最終你會做到的。另一種方式是你可以將最佳化函數設定為好奇心,如果你等待足夠長的時間,它就會發現狹義相對論。但愛因斯坦不是這麼做的。愛因斯坦在17、18歲時,點著燈,拿著他的小筆和紙,想出了這個理論。我們還沒有達到那個階段。我個人的看法是,那將是一個非常難以踰越的界限。換句話說,我們將達到超人行為的水平,這與超級智能不同,而後者,我會說愛因斯坦以及其他一些人已經實現了。等等,他們確實做到了。格雷厄姆,能和您在一起是我的榮幸。格雷厄姆:非常高興您能來這裡,我們期待您再次光臨。讓我們一起說聲謝謝吧。感謝大家。 (藍血研究)
一群白人優越主義的人聚在一起所説的還是霸權失落感下對抗壓制的論調,合作進步在西方白人血液裡根本是雙標假意和言語虛僞的下意識主觀堅定的態度,西方長期的主宰世界利益,所以白人見不得東方或南方的進步或超越,生活上過的和它們一樣好,怕美味蛋糕被分走而對方又壯大不敢正面欺凌,現在只能抹黑、雙標、謊言宣傳、聯合霸凌等歐美國老手段
1
吉姆·凱勒新作!性能最強RISC-V CPU來了,叫板輝達Arm
前蘋果晶片大神新作,專為高性能計算而生。芯東西12月4日報導,今日,美國AI晶片企業Tenstorrent推出高性能RISC-V CPU——TT-Ascalon,宣告其性能超越當下所有市場上已有RISC-V CPU。該CPU適用於伺服器、AI基礎設施、汽車高性能計算(HPC)及高級駕駛輔助系統(ADAS)等廣泛場景。Tenstorrent產品戰略副總裁Aniket Saha談道:“RISC-V核心幾乎覆蓋所有應用,但此前一直缺乏真正的高性能產品。Ascalon填補了這一空白,作為專為先進計算設計的RISC-V CPU,具備完整的出口合規性和全球可用性。”▲Tenstorrent產品戰略副總裁Aniket Saha在講解產品Tenstorrent於2016年創立於加拿大,於2023年將註冊地和總部遷往美國,2025年由晶片產業傳奇人物、前蘋果A系列及特斯拉自動駕駛晶片主導研發人吉姆・凱勒(Jim Keller)出任CEO,其於2025年剛剛憑藉開放式芯粒架構(OCA)成為RISC-V生態核心參與者。該公司近期剛剛被傳出推進至少8億美元的新融資,目前已完成多輪累計超10億美元融資,估值達32億美元。投資者對Tenstorrent的興趣源自其被認為是撕開輝達集中市場一條口子的重要潛力,其已通過大量開源技術避免了使用輝達成本較高的頻寬記憶體(HBM)。回到Tenstorrent今日的最新發佈來看,Ascalon的架構具有多方面創新,其通過業界標準SPEC CPU基準測試驗證,單核性能達到22 SPECint 2006/GHz、>2.3 SPECint 2017/GHz和>3.6 SPECfp 2017/GHz,並可在Samsung SF4X工藝節點下實現>2.5 GHz主頻,展現了其強大的設計和在先進工藝節點上的可擴展性。▲TT-Ascalon架構性能情況據Tenstorrent RISC-V核心副總裁Divyang Agrawal介紹,該產品的一大特徵是完全相容RISC-V RVA23規範。軟體生態決定了開發者能實現什麼。那麼Ascalon架構的生態系統在那裡?如何確保它能融入整個RISC-V生態?RVA23配置檔案標準化了應用級處理器需實現的功能集,這將直接整合到軟體工具鏈中。通過標準化,它不僅支援各類標準、安全擴展,還支援最新的RISC-V向量擴展,這正是其CPU與AI產品線共同採用的一大核心技術。並且,Ascalon整合高性能RVV1.0向量引擎,支援硬體虛擬化、先進記憶體管理和高級中斷架構。此外,Ascalon還具備安全性和RAS(可靠性、可用性和可維護性)特性,包括側通道攻擊防護。在推出Ascalon的同時,Tenstorrent還宣佈Ascalon全面支援GCC、LLVM和Qemu,並已完成上游合入,開發者和客戶可立即部署使用。通過本次發佈,Tenstorrent確保為RVA23建構的軟體能在Ascalon及任何符合RVA23規範的處理器上無縫運行,為開發者提供可靠保障。▲Ascalon全面支援GCC等軟體生態Divyang Agrawal補充道:“通過Ascalon,我們為客戶提供了集高性能核心、系統IP、RVA23相容工具鏈和完整技術資料於一體的整體解決方案。這為客戶開發從高性能計算到機器人等計算平台提供了關鍵建構模組,助力開發者拓展RISC-V生態。”Tenstorrent在產品設計時的一大原則是:一個設計方案的最終實現形態,取決於其目標應用領域。因此,他們從一開始就通盤考量了基礎設施、工具鏈、設計方法學以及設計本身。其架構被設計為高度可配置和參數化。Tenstorrent同時強調IP設計要有遠見。擁有IP、一套可配置的參數固然重要,但這還不夠。Tenstorrent認為其還需要提供一套能夠立即部署的完整方案,Tenstorrent團隊希望強調的是其可擴展性。Tenstorrent提供了從單連接埠到最多8連接埠的可配置性,從單一核心擴展至最多包含八個核心、共享快取的叢集,並會持續演進。Ascalon連接埠被認為是Arm的重要替代選項。▲Tenstorrent提供了從單連接埠到最多8連接埠的可配置性最後,當晶片流片之後,晶片偵錯能力至關重要。Tenstorrent認為,在設計中嵌入強大的偵錯能力,並控製成本,這再次成為其區別於普通IP供應商的一個關鍵。目前市面上已有的開發平台,大多不允許開發者在上面進行真正意義上的高性能軟體開發。但Tenstorrent使得從高性能計算(HPC)到嵌入式設計的軟體開發成為可能。正如Divyang Agrawal所說,將所有要素整合,Tenstorrent提供的是一個完整的解決方案。▲Tenstorrent提供的是一個完整的解決方案在生態合作方面,Tenstorrent通過其Innovation License(創新授權)計畫,為合作夥伴提供自主創新的路徑,該計畫使合作夥伴能夠基於Tenstorrent技術建構差異化且自主可控的解決方案。同時,Tenstorrent已與CoreLab建立合作夥伴關係,推動區域客戶支援和設計最佳化,幫助客戶高效採用並快速部署其IP。此外,Tenstorrent還在今日與知名軟體定義汽車平台供應商AutoCore.ai達成戰略合作。Ascalon RISC-V處理器為後者的AutoCore軟體平台提供強大的算力支援,加速RISC-V在汽車領域的應用落地。 (芯東西)
“大交易”:一場遲到的美國AI戰略自救
前不久,前白宮人工智慧特別顧問本·布坎南(Ben Buchanan)在《外交事務》雜誌上拋出了他的“大交易”設想,華盛頓的政策圈似乎又找到了一個新的敘事框架。這位在2021至2025年間負責協調拜登政府AI政策的核心人物,試圖為美國AI發展勾勒一幅宏大藍圖:科技行業必須要與政府達成戰略協議,前者獲得能源基礎設施、人才管道和國家安全保護,後者則將AI整合進國防體系並確保其不破壞所謂的民主價值。這個提議聽起來既務實又理想主義——問題恰恰在於,它可能過於理想主義了。更令人玩味的是,就在布坎南構想這份“大交易”之後不久,DeepSeek正在以一種近乎諷刺的方式,拆解著他所依賴的核心假設。這家被美國晶片出口管制嚴密封鎖的公司發佈了DeepSeek V3.2,實測在開源模型中達到全球最高水平,與海外頂級閉源模型的差距縮小至約一個季度。該模型分為普通版和特別版:普通版性能對標 GPT-5,特別版則媲美 Gemini 3.0 Pro,尤其在數學與推理能力上表現突出。這不僅是一次技術突破,更是對美國“晶片遏制”戰略的一記響亮耳光。晶片政策的分歧:遏制還是“上癮”?在理解布坎南“大交易”的困境之前,我們必須先釐清美國AI戰略界內部一個長期存在但鮮被公開討論的根本分歧——關於對華晶片政策,決策圈內實際上存在著兩種截然不同的哲學。本·布坎南(Ben Buchanan)第一派可稱為“技術依賴派”或“上癮派”。這派觀點認為,應當允許中國大陸在一定程度上獲取美國的先進AI晶片,使其AI生態系統建立在美國技術基礎之上,形成一種戰略性依賴。這種策略的邏輯類似於毒品販子的手法:先讓對方上癮,然後控制供應鏈就能控制對方的技術發展節奏。輝達最初對中國大陸市場的態度——不斷推出降級版晶片如H800、H20來規避出口管制——某種程度上體現了這種思路。這一派相信,只要中國大陸市場的AI產業離不開美國晶片,華盛頓就永遠掌握著關閘的權力。第二派則是布坎南所代表的“全面遏制派”。在他們看來,任何對中國大陸的技術滲透都是危險的,必須在製造端實施最嚴格的封鎖,不給中國大陸任何獲取先進算力的機會。這種觀點在2022年10月拜登政府大幅擴展晶片管制時達到高峰,不僅限制先進晶片出口,還限制晶片製造裝置,甚至禁止美國公民為中國大陸半導體公司提供技術支援。布坎南在文中對中國大陸“軍民融合”戰略的惡毒指控,都清晰地顯示出他屬於這一陣營。然而諷刺的是,DeepSeek的成功恰恰證明了兩種策略可能都已失效。“上癮派”的夢想破滅了——中國大陸AI企業並沒有因為依賴美國晶片而束手就擒,反而在被斷供後激發出了驚人的技術創新能力。而“遏制派”的策略同樣遭遇挫敗——即便在最嚴格的出口管制下,中國大陸企業仍通過演算法最佳化、架構創新和可能的走私管道,實現了技術突破。正如智庫Stimson Center的分析所言,出口管制的“卡脖子”假設本身就是一個謬誤——每一次限制都會留下縫隙和漏洞,而目標國家的適應和創新能力往往被嚴重低估。更值得警惕的是,這種封鎖正在催生一個危險的結果:“設計出去”(designing out)。當美國技術被完全排除在外時,中國大陸企業別無選擇,只能開發完全繞過美國技術的替代方案。華為用麒麟9000s晶片替代高通,導致高通2024年損失6000萬套晶片銷售,就是一個典型案例。長期來看,這種“設計出去”將永久性地侵蝕美國在全球半導體生態系統中的地位——當中國大陸建立起完整的國產替代體系後,即便美國日後放鬆管制,市場份額也難以奪回。布坎南的“大交易”建立在全面遏制戰略能夠成功的假設之上,但現實已經在反覆證明,這個假設正在崩塌。能源幻覺與基礎設施的政治死結“大交易”的第一個支柱是政府為AI產業提供充足的能源基礎設施。布坎南在文中引用的資料令人震撼:到2028年,美國AI產業僅新增電力需求就將達到500億瓦,相當於整個阿根廷的用電量,資料中心可能消耗美國電力產量的12%。與此形成鮮明對比的是,中國大陸每年新增電力容量達12%,而美國在2005至2020年間幾乎沒有新增淨電力。這個對比看似有力,實則掩蓋了一個更深層的問題:為什麼美國在過去二十年間幾乎沒有新增電力?答案並非技術能力不足,而是美國社會在能源政策上陷入了一個幾乎無解的政治死結。一方面,任何大規模的新建電廠項目——無論是傳統化石能源還是核電——都會面臨環保團體、地方社區和監管機構的多重阻撓。美國的環境影響評估流程可以讓一個電廠項目耗費十年以上時間仍無法開工。另一方面,即便是清潔能源項目,也面臨著“不要建在我家後院”(NIMBY)效應的困擾。加州在可再生能源方面走在全美前列,但其電網卻經常因為峰值負荷而陷入危機,而新建輸電線路的項目同樣被環保和土地糾紛困住。布坎南樂觀地認為,AI驅動的能源繁榮將創造就業、加速清潔能源開發,實現“無碳化營運”。但這種敘事忽略了一個殘酷現實:在美國當前的政治生態下,任何大規模基礎設施建設都會遭遇曠日持久的黨派爭鬥、司法訴訟和監管審批。川普政府宣佈的5000億美元Stargate項目看起來宏大,但如果我們回顧川普第一任期內承諾的基礎設施投資有多少真正落地,就不難理解這些承諾的可信度。美國電力短缺狀況(@華盛頓大學)更諷刺的是,當前美國政治氛圍下,對AI的態度本身就充滿分裂。一部分人將AI視為新的經濟引擎和國家安全工具,另一部分人則擔心AI導致失業、隱私侵犯和社會不平等。在這種背景下,要求政府為AI產業大規模投資能源基礎設施,本身就可能引發激烈的政治反彈。那些在鏽帶州失去工作的選民,那些被高房價和生活成本壓得喘不過氣的中產階級,憑什麼要為矽谷科技巨頭買單,幫助他們獲得更多電力來訓練AI模型?中國大陸的優勢恰恰在於其政治體制能夠快速調動資源實施大規模基礎設施建設。當決策者確定AI是戰略重點時,電廠、資料中心和配套設施能夠以驚人的速度上馬。這不是單純的技術問題,而是治理模式的差異。布坎南的“大交易”假設美國政府能夠提供類似的支援,但這個假設本身就忽視了美國政治體制的結構性制約。人才政策的內在矛盾“大交易”的第二個支柱是維持國際人才管道。布坎南正確地指出,70%的頂級在美AI研究人員出生在國外,65%的領先美國AI公司至少有一位移民聯合創始人。但他對人才政策面臨的困境卻語焉不詳。川普政府在移民政策上的立場與布坎南的設想存在根本衝突。將H-1B簽證費用提高到10萬美元,大幅收緊國際學生入學政策(2025年可能導致國際學生入學率下降30%-40%),這些措施的政治邏輯與“保持AI人才流入”完全相悖。但問題的關鍵在於:這些移民政策並非出於無知或短視,而是回應了美國社會中一股強大的民粹主義情緒。對許多美國選民而言,保護美國就業、防止移民搶走機會是比維持AI領先地位更直觀、更緊迫的關切。當布坎南談論引進更多外國AI人才時,政治現實是,這種政策會被解讀為“讓外國人來搶美國人的工作”。技術精英和政策制定者可以用國家安全和經濟競爭力來論證開放移民的必要性,但這套話語在政治市場上的說服力遠不如美國優先來得有力。更深層的矛盾在於,布坎南一方面希望政府幫助AI產業獲得更多國際人才,另一方面又主張將AI深度整合進國家安全體系。但任何有過安全審查經驗的人都知道,涉及國防和情報的項目對人員背景有極其嚴格的要求。當AI越來越多地被用於軍事和情報用途時,如何平衡人才開放性和安全審查的嚴格性?那些來自對手國家的研究人員——包括大量來自中國大陸的AI專家——是否還能參與最前沿的AI研發?布坎南似乎希望魚與熊掌兼得:既要保持美國作為全球AI人才磁石的地位,又要加強對AI技術的國家安全管控。但這兩個目標存在內在張力。中國大陸正在積極招募AI專家回國,而美國日益收緊的移民政策和日益政治化的科研環境,可能會加速這種人才回流。當美國大學裡的中國大陸留學生發現自己無論多麼優秀都難以獲得工作簽證,當他們的研究因為敏感性而受到限制時,選擇回國就成了理性選擇。而這正是布坎南所擔心的人才外流。政府-產業合作的結構性障礙“大交易”設想的核心是政府與科技行業建立深度合作關係。但這個設想面臨一個尷尬的現實:雙方之間存在著深刻的互不信任。從科技行業的角度看,政府意味著繁瑣的監管、緩慢的決策流程和對商業創新的束縛。矽谷文化崇尚“快速行動,打破陳規”(Move fast and break things),而政府系統的特點恰恰是謹慎、官僚和風險規避。更重要的是,科技公司擔心與政府深度合作會限制它們的商業自由。如果將AI系統深度整合進國家安全體系,這意味著更嚴格的出口管制、更多的安全審查、更少的國際市場機會。對那些在全球營運的科技巨頭而言,這是一個巨大的代價。從政府的角度看,科技公司則是一群難以管束、唯利是圖、不考慮國家安全的商業實體。OpenAI、Google、Meta這些公司都曾因為與軍方和情報機構的合作項目引發內部員工抗議。2018年,Google員工成功迫使公司退出了與國防部的Maven項目。這種企業內部對軍事合作的牴觸,讓政府對科技公司的可靠性深表懷疑。布坎南在白宮任職期間主導的一些政策,恰恰體現了這種張力。拜登的AI行政命令要求科技公司自願做出安全承諾,但這些承諾大多停留在原則層面,缺乏強制約束力。而當政府試圖實施更嚴格的監管時,科技公司又會動用強大的遊說力量來阻撓。這種貓捉老鼠的遊戲,很難想像能夠昇華為布坎南所設想的“大交易”式的戰略夥伴關係。更根本的問題在於,“大交易”假設政府和產業能夠就AI的發展方向達成一致。但實際上,雙方對許多核心問題存在嚴重分歧:AI應該多大程度上開放?誰應該控制最強大的AI系統?AI帶來的經濟收益應該如何分配?AI技術應該向那些國家和實體出口?在這些問題上,政府和科技公司的利益遠非完全一致,而且內部也存在嚴重分歧。要在這樣的基礎上達成一個覆蓋能源、人才、國家安全等多個維度的“大交易”,難度之大可想而知。時間的殘酷性與政策的惰性布坎南正確地指出,AI進步速度極快,政策制定者必須在極短時間內做出重大決策。但他的“大交易”卻要求完成一系列在美國政治體制下通常需要數年甚至數十年才能實現的任務:大規模能源基礎設施建設、移民政策根本性改革、政府-產業關係的深刻重構、國家安全體系的全面AI化。這裡存在一個根本性的時間錯配:AI技術的演進以月為單位,而美國政治體制的變革以年甚至十年為單位。在拜登任期內,布坎南主導的AI行政命令確實取得了一些進展,建立了AI安全研究所等機構,推動了一些自願承諾。但這些成就與“大交易”設想的宏大目標相比,幾乎微不足道。而現在,川普政府正在系統性地拆除拜登時期建立的許多AI治理框架,包括放鬆晶片出口管制——這正是布坎南最擔心的事情。政治周期的不穩定性使得任何長期戰略都難以為繼。一個政府費盡心力建立的政策框架,可能在下一個政府上台後被全盤推翻。在這種情況下,要求政府和產業就一個需要十年、二十年才能見效的“大交易”達成共識,無異於痴人說夢。中國大陸的體制優勢恰恰在於其政策的連續性和長期性——當中國大陸將AI確定為戰略重點時,這個戰略可以持續數十年不變,資源投入也能夠保持穩定。美國的民主制度有其獨特價值,但在需要長期戰略規劃的技術競爭中,這種制度的弱點暴露無遺。布坎南的“大交易”本質上是一個防禦性戰略,它的出發點是“防止失去領先地位”而非“創造新的突破”。這種心態本身就反映了一種焦慮和不自信。當一個國家的AI戰略主要由防止對手超越而非創造革命性創新驅動時,它實際上已經喪失了先機。中國大陸的AI戰略雖然也包含趕超美國的目標,但更重要的是建立自主創新能力和獨立的技術生態。DeepSeek的成功正是這種戰略思維的體現——與其被動等待美國放鬆封鎖,不如主動探索新的技術路徑。難以癒合的裂痕最終,“大交易”之所以難以實現,根源在於它試圖彌合的那些裂痕可能本就無法癒合。美國社會在AI問題上的分裂是深層次的。技術精英認為AI是下一個增長引擎,必須不惜一切代價保持領先;普通民眾擔心AI導致失業和不平等;環保主義者反對為AI建設消耗巨量資源的資料中心;民族主義者要求限制移民和技術出口;國際主義者強調開放合作的重要性。這些立場之間的矛盾,不是一個“大交易”就能調和的。政府和科技公司之間的不信任是結構性的。科技公司希望政府提供支援但不要干預,政府希望科技公司服從國家利益但又不完全信任它們。這種關係更像是一種脆弱的共生而非穩固的夥伴關係。美國和中國大陸的競爭是長期的、全方位的,不可能通過單一的技術封鎖或單一的政策框架來解決。中國大陸的制度優勢在於能夠集中資源和長期規劃,美國的制度優勢在於創新活力和市場機制。但當競爭進入到需要國家動員和長期規劃的階段時,美國的制度優勢可能反而成為劣勢。布坎南的“大交易”建立在一個過於樂觀的假設之上:只要政府和產業達成正確的協議,美國就能夠延續其在AI領域的領先地位。但現實可能更加殘酷——不是美國不夠努力,不是政策不夠好,而是歷史的鐘擺正在擺向另一邊。技術霸權從來不是永恆的,曾經的領先者往往會在新的技術範式轉換中失去優勢。AI可能正是這樣一次範式轉換,而“大交易”式的修補方案,或許只是延緩衰落而非逆轉趨勢。在DeepSeek證明封鎖無效、川普政府拆除拜登時期的AI治理框架、美國社會在移民和能源政策上陷入僵局的當下,布坎南的“大交易”更像是一個精緻的政策幻想,而非可行的戰略方案。這並非說布坎南的診斷不對——美國在AI領域確實面臨能源、人才、安全整合等多重挑戰。問題在於,他開出的藥方需要一個在當前美國政治現實中幾乎不存在的條件:高度共識、長期承諾、政府效率和超黨派合作。當這些前提條件都不具備時,“大交易”就只能停留在紙面上,成為又一個華盛頓政策圈裡的美好願景,而非能夠真正塑造現實的戰略行動。 (心智觀察所)
大漲4.85%!輝達砸20億入股EDA巨頭新思科技,黃仁勳盛讚“巨大擴展機遇”、否認類似OpenAI交易閉環
輝達將持有新思科技2.6%股份,成為第七大股東。黃仁勳表示,與新思科技的合作並非排他性協議,也不涉及採購輝達晶片的條款,“更像是一次技術升級”。合作將使輝達的技術覆蓋規模達兆美元的工業領域,"這是我們擴展到設計和工程領域的巨大機遇",遠超消費端AI應用的市場空間。新思科技盤中曾漲近7%,輝達盤初跌近2%後轉漲。輝達又宣佈重磅合作,這次是不同於類似投資OpenAI的那種令華爾街擔憂的“AI閉環”交易。美東時間12月1日周一美股盤前,輝達與電子設計自動化(EDA)領域龍頭企業新思科技(Synopsys)宣佈達成戰略合作,輝達將斥資20億美元入股新思科技。雙方將通過多年合作,把輝達的人工智慧(AI)計算技術深度整合到工業設計與工程領域,重塑從晶片到系統的整個設計流程。合作公佈後,周一新思科技(SNPS)股價大漲,美股盤初一度漲超6.9%,午盤漲幅縮小至5%以內,收漲不足4.9%,連續三個交易日收漲,刷新11月3日以來收盤高位,將今年以來的累計跌幅縮小到10%以內。輝達股價盤初曾跌近1.9%,但隨後迅速轉漲並保持漲勢,午盤刷新日高時日內漲近1.9%,收漲不到1.7%。上述合作相關的投資將使輝達成為新思科技的第七大股東,持股比例為2.6%。在近期AI領域頻現內部循環性交易引發市場擔憂之際,輝達CEO黃仁勳明確表示,與新思科技的合作並非排他性協議,也不涉及採購輝達晶片的條款。換言之,即使輝達入股,性質也與此前輝達對OpenAI的投資不同。黃仁勳強調,這次合作將使輝達的技術覆蓋規模達兆美元的工業領域,"這是我們擴展到設計和工程領域的巨大機遇",遠超消費端AI應用的市場空間。20億美元入股細節:折價配售與戰略意義根據兩家公司周一發佈的聲明,輝達以每股414.79美元的價格購買了新思科技約480萬股股票,較上周五收盤價折讓約0.8%。這些股票通過私募配售方式發行。交易公告顯示,新思科技"將使用輝達的開發者工具套件和程式碼庫,在晶片設計、物理驗證和其他EDA流程的應用上展開合作"。新思科技總部位於加州,是全球最大的晶片設計軟體和服務提供商之一。該公司的工具幫助設計現代晶片中數十億個電晶體和連接器的複雜佈局,並在生產階段之前驗證硬體能否按預期工作——這一過程是建構AI系統所需晶片的關鍵環節,包括輝達銷售的產品。彭博行業研究的分析師Niraj Patel指出,新思科技的技術被Alphabet和特斯拉等廣泛的半導體和系統公司使用。這筆交易將使新思科技能夠在汽車、航空航天、工業和能源領域的設計和模擬工具中使用更先進的晶片。多年期戰略合作:從EDA到數字孿生這項合作遠超單純的股權投資。根據輝達的公告,雙方的多年期合作夥伴關係包括以下核心內容:“使用輝達CUDA-X庫和AI物理技術,新思科技將進一步加速和最佳化其廣泛的計算密集型應用組合,涵蓋晶片設計、物理驗證、分子模擬、電磁分析、光學模擬等。”雙方還將"整合新思科技AgentEngineer技術與輝達代理AI技術堆疊——包括輝達NIM微服務、輝達NeMo Agent Toolkit軟體和輝達Nemotron模型——以實現EDA以及模擬和分析工作流程的自主設計能力"。在數字孿生(digital twins)領域,兩家公司將合作"通過使用高度精確和複雜的數字孿生,為半導體、機器人、航空航天、汽車、能源、工業、醫療等行業實現下一代虛擬設計、測試和驗證"。這些解決方案將利用輝達Omniverse、輝達Cosmos及其他技術。雙方還同意開發聯合市場推廣計畫,利用新思科技數千名直銷人員和管道合作夥伴的全球網路,推廣基於GPU加速的工程解決方案。值得注意的是,公告明確表示:“這一合作夥伴關係並非排他性的。輝達和新思科技繼續與更廣泛的半導體和EDA生態系統合作,為工程和設計的未來創造共同增長機會。”黃仁勳:從資料中心到兆美元工業市場在周一的媒體專訪中,黃仁勳詳細闡述了這筆交易對輝達的戰略意義。他將其描述為"革命性"的產業轉型,而非簡單的商業合作。黃仁勳表示:“這是一筆巨大的交易。我們今天宣佈的合作夥伴關係是關於徹底改變世界上計算密集程度最高的行業之一——設計和工程。新思科技正在讓公司轉型,將業界使用了約35年的軟體和所有工具轉變為在輝達上進行GPU加速。”黃仁勳特別強調了工業領域的市場規模。被問及為何投資者應關注企業級應用而非消費端AI競爭時,他回答:“如果你看看世界的百兆美元產業,主要是工業和企業對企業。這些現在正被平台轉變所改造的企業和嚴肅的工業企業應用。”他用具體資料說明潛在市場空間:“幾乎所有工業公司、製造產品的公司如輝達、通用汽車、波音,在工程軟體工具上的支出可能是數億美元,或許是非常低的數十億美元。然而,他們在所有這些產品的原型製作上的支出輕易就是這個的10到20倍。”黃仁勳指出,通過數字孿生技術在虛擬環境中完成原型設計,"市場機會增長了10到100倍"。關於平台轉變,黃仁勳提供了一個關鍵資料點:“2016年,世界科學超級電腦90%是CPU,10%是GPU。今年,90%是GPU,10%是CPU。平台轉變已經發生。現在,我們正在為工程設計這個行業進行這一轉變。”新思科技CEO Sassine Ghazi補充說:"你接受一個可能需要運行兩三周的工作負載,將其縮短到幾小時。這就是我們通過這一合作夥伴關係,在輝達的GPU上加速軟體,向客戶交付的價值。"與OpenAI投資的本質區別從承諾對OpenAI投資多達1000億美元到50億美元入股英特爾,輝達近期的投資活動頻繁,引發了市場對AI領域循環交易和泡沫的擔憂。不過,黃仁勳周一的講話顯示,前述被視為AI閉環交易的投資同輝達與新思科技的交易性質截然不同。黃仁勳告訴媒體:“這一合作夥伴關係並非排他性的,意味著新思科技的其他晶片製造商客戶將能夠從中受益。而且該交易與購買輝達晶片的協議無關。”他將這次合作描述為“更像是一次技術升級”。黃仁勳表示,自動設計行業仍有太多基於通用晶片的舊電腦在使用。"與新思科技建立更緊密的聯絡將加速該領域AI和加速計算的採用,也可以更快地在新市場推廣這項技術。"同在周一,OpenAI宣佈將持有Thrive Holdings的股權,後者是主要OpenAI投資者Thrive Capital今年早些時候設立的投資工具。這種安排加劇了市場對相互關聯交易將危及AI產業的擔憂。相比之下,雖然新思科技與輝達的交易也加深了行業聯絡,但並非循環性質。D.A. Davidson分析師Gil Luria指出:"輝達對誰能在AI驅動的計算市場中獲勝有很大控制權,它希望從這種影響中獲益。通過與新思科技更緊密的合作,它貢獻了動力和可信度,反過來將從新思科技股價的升值中獲益。"新思科技是一家客戶名單包括AMD的公司,而輝達也與新思科技的競爭對手Cadence Design合作。這種非排他性安排表明,這次合作更多是技術生態系統的擴展,而非封閉的商業閉環。對於輝達而言,掌握EDA這一晶片設計核心工具鏈市場的關鍵地位,意味著其GPU加速計算平台可以滲透到從晶片設計到工業製造的全產業鏈,這一戰略價值遠超單純的客戶採購關係。 (invest wallstreet)
Google CEO:Google的AI戰略遠見和定力
“我們不是在追趕風口,而是在建造風。”——桑德爾·皮查伊(Sundar Pichai),2024年12月回望2022年底,ChatGPT驚豔四座,而Google緊接著的新品發佈會卻錯誤頻出。具有諷刺意味的是,ChatGPT的核心技術——Transformer架構,正是Google在2017年的研究成果。作為技術先驅,AI的第一波紅利卻被OpenAI端走。外界質疑Google已患上“大企業病”,甚至有投資人公開喊話:“皮查伊該下台了。”但很少有人看到,風暴中的皮查伊沒有慌亂辯解,而是悄悄拿起了一把手術刀——對內動刀,對外沉默。這是一場以“減法”為核心的組織革命。2024年,他將長期各自為戰的Google Brain與DeepMind正式合併,統一命名為DeepMind,並把面向消費者的Gemini App團隊也劃歸其下。研發與產品之間的高牆被推倒,曾經需要數月協調的模型迭代,如今兩周就能上線。與此同時,皮查伊砍掉了廣告、雲等核心業務中35%的中層管理崗。過去一個基層工程師要跨過三四層匯報才能推動一個小改動,現在可以直接對話業務負責人。決策鏈變短了,創新的速度就快了。更令人驚嘆的是那項被稱為“花園休假”(Garden Leave)的人才策略:核心AI研究員若提出離職,可選擇領取一年全額薪資,條件是12個月內不得加入任何競爭對手。在AI人才爭奪白熱化的今天,用一年薪水換對手一年時間差——這筆帳,怎麼算都划算。正是這些“看不見的改革”,讓Google在沉默中完成了最關鍵的轉身。當Gemini 3和Nano Banana Pro橫空出世時,人們才恍然:那個曾被嘲笑“反應遲鈍”的Google,早已脫胎換骨。一、從“AI First”到“Everything AI”:一場靜默的重構2015年,皮查伊剛接任CEO不久,就向全公司發出一封郵件:“從今天起,Google將轉向AI優先(AI First)。”當時沒人意識到這句話的份量。直到多年後回看,才明白這不僅是口號,而是一場系統性革命。Google沒有像其他公司那樣,在現有產品上“加個AI按鈕”。它選擇從底層開始重寫自己:自研TPU晶片,第七代Ironwood專為大規模推理最佳化;合併Google Brain與DeepMind,終結“兩個大腦”的內耗;把搜尋、YouTube、Android、Chrome全部接入統一的Gemini架構;甚至量子計算實驗室也納入AI基礎設施藍圖。這不是迭代,是重生。皮查伊在最近一次訪談中說得直白:“我們圍繞AI重構一切——從物理基礎設施,到研究方向,再到產品體驗。這不是某個部門的任務,而是整個公司的存在方式。”這種“全端式押注”,讓Google在短期內看起來“慢”:Gemini 1.0發佈晚於GPT-4,圖像生成工具Nano Banana Pro直到2025年才亮相。但正是這份“慢”,換來了今天的“快”。當Gemini 3和Nano Banana Pro同時支援即時圖像生成、長上下文推理、音訊輸出與瀏覽器代理操作時,行業才猛然發現:Google早已不在同一個賽道上競爭。二、定力之源:哈薩比斯的AGI遠見很多人不解:為什麼Google不學OpenAI,先靠一個驚豔功能引爆市場?答案藏在哈薩比斯的人生裡。這位曾是國際象棋神童、神經科學博士、遊戲公司CEO的天才,在創辦DeepMind時就立下目標:“建構能像人類一樣思考、學習、創造的智能體。”他堅信:真正的智能必須是多模態的。 你不能指望一個只會聊天的AI去駕駛汽車、設計藥物或理解一幅畫背後的情感。所以,當別人在卷“上下文長度”或“數學分數”時,Google在默默打通視覺、語言、動作、推理的壁壘。Gemini從1.0開始就是原生多模態;Genie世界模型能通過視訊預測物理互動;AlphaFold破解蛋白質結構,AlphaProof挑戰數學猜想……這些看似分散的項目,實則共享同一套認知架構。短期看,是資源分散;長期看,是能力融合。正如皮查伊所說:“當你看到機器人用Gemini理解環境並做出決策,或Astra通過手機鏡頭即時回答問題,你就明白——這些不是孤立的產品,而是一個智能生態的不同切面。”三、未來12個月:AI將從“問答機”變成“辦事員”皮查伊最近透露了一個關鍵訊號:“現在的AI還只是問答機器人。未來12個月,它要成為真正的智能體(Agent)。”什麼意思?不再是你問一句,它答一句;而是你給一個目標:“幫我給老婆選個生日禮物,預算2000元,她喜歡復古風格”,AI會自己查品牌、比價格、看評價、下單,甚至寫賀卡。這背後需要三大能力突破:任務分解與規劃(Plan)跨工具呼叫(Act)安全可靠的執行(Verify)Google已在內部測試Project Mariner——一個能在Chrome瀏覽器中自主操作網頁的AI代理。它不是幻覺驅動的“嘴炮”,而是能真實點選、填寫、提交的“數字員工”。這才是AI影響勞動力市場的真正起點。四、量子計算:Google的“第二曲線”當別人還在爭論AI是否泡沫時,Google已把目光投向更遠的地方。“量子計算就像五年前的AI。”皮查伊說,“很少人懂,但進展迅猛。”Google量子實驗室的Sycamore處理器已在特定任務上實現“量子優越性”。下一步,是將量子計算與AI結合——比如用量子演算法加速分子模擬,為新藥研發提速百倍。這不是科幻。這是Google正在鋪的路。結語:慢,是因為看得太遠巴菲特為何在95歲高齡首次建倉Google?不是因為Gemini 3多酷,而是因為他看懂了:Google正在成為AI時代的“水電煤”提供商。有搜尋、YouTube、Android提供現金流;有TPU、資料中心、量子計算構築護城河;有DeepMind團隊死磕AGI終局;更有皮查伊用“減法管理”重塑組織韌性。這盤棋,Google下了十年。現在,終於到了收子的時候。真正的戰略,不是跑得最快,而是方向最準。在這個追逐熱點的時代,Google用“慢”證明了:偉大的公司,從不迎合浪潮,而是定義浪潮。(全球領導力)